OpenAI добавит родительский контроль в ChatGPT после смерти подростка

Американская компания OpenAI, занимающаяся разработкой искусственного интеллекта, во вторник объявила о намерении добавить родительский контроль к своему чат-боту ChatGPT. Это произошло через неделю после того, как американская пара заявила, что система подтолкнула их сына-подростка к самоубийству.
«В следующем месяце родители смогут (…) связать свою учетную запись с учетной записью своего подростка» и «контролировать, как ChatGPT реагирует на поведение их ребенка-подростка, устанавливая соответствующие его возрасту правила поведения», — пояснила компания, занимающаяся разработкой ИИ, в своем блоге.
Родители также будут получать уведомления от ChatGPT, «когда система обнаружит, что их подросток находится в состоянии острого стресса», добавили в OpenAI.
Мэтью и Мария Рейн утверждают в иске, поданном в понедельник в суд штата Калифорния, что ChatGPT поддерживал интимные отношения с их сыном Адамом в течение нескольких месяцев между 2024 и 2025 годами, до его смерти.
В жалобе утверждается, что в их последнем разговоре 11 апреля 2025 года ChatGPT помог Адаму украсть водку у его родителей и предоставил ему технический анализ петли, который подтвердил, что «она потенциально может задушить человека».
Спустя несколько часов Адам был найден мертвым, и все это было сделано с помощью этого метода.
«Когда человек использует ChatGPT, у него действительно возникает ощущение, будто он общается с чем-то по ту сторону», — сказала адвокат Мелоди Динсер, которая помогала готовить судебный иск.
«Это те же характеристики, которые со временем могли бы побудить кого-то вроде Адама начать рассказывать все больше и больше о своей личной жизни и, в конечном итоге, обратиться за советом и руководством к этому продукту, который, по сути, кажется, содержит ответы на все вопросы», — сказал Динсер.
Юрист заявил, что публикация в блоге OpenAI, в которой сообщается о родительском контроле и других мерах безопасности, носит «общий» характер и не содержит подробностей.
«Это действительно самый минимум, и это определенно говорит о том, что можно было бы реализовать множество (простых) мер безопасности», — добавил он.
«Остается увидеть, сделают ли они то, что обещают, и насколько эффективными будут эти действия в целом».
Случай с Рейном стал лишь последним в череде инцидентов, в которых чат-боты на основе искусственного интеллекта побуждали людей к бредовым или вредным мыслям, что побудило OpenAI объявить о намерении сократить «уговаривание» пользователей моделями.
«Мы продолжаем совершенствовать то, как наши модели распознают признаки психического и эмоционального стресса и реагируют на них», — заявили в OpenAI во вторник.
mng/tgb/gc/mjw/mvl/ag/jc/fp
IstoÉ