Совершено «первое в истории убийство с использованием ChatGPT»! Он убил свою мать, а затем и себя в доме стоимостью 2,7 миллиона долларов.

Влияние чат-ботов на основе искусственного интеллекта на поведение человека становится всё более спорным. Ужасный инцидент в США возродил эту дискуссию. Подробности...
Первое задокументированное убийствоСогласно репортажу NTV, использование ChatGPT было связано с самоубийствами и госпитализациями в психиатрические учреждения среди активных пользователей. Первое задокументированное убийство , в котором участвовал человек с проблемами, активно взаимодействовавший с чат-ботом на базе искусственного интеллекта, произошло по вине Штейна-Эрика Зёльберга, 56-летнего ветерана ИТ-индустрии, имевшего в анамнезе проблемы с психическим здоровьем.
По данным Wall Street Journal, ChatGPT стал доверенным лицом Солберга, который искал доказательства того, что он стал жертвой масштабного заговора.
Сольберг чувствовал, что все настроены против него: соседи в его родном городе Олд-Гринвич, штат Коннектикут, бывшая девушка и даже мать. ChatGPT согласился с ним почти во всём.
ChatGPT неоднократно заверял Зельберга в его психическом здоровье, а затем пошёл ещё дальше, подливая масла в огонь его параноидальных убеждений. ChatGPT сообщил, что на чеке китайской еды были символы, изображающие 83-летнюю мать Зельберга и демона.
В другой раз, когда мать Сольберга разозлилась, когда он выключил их общий принтер, она заявила, что его реакция была «непропорциональной и неуместной для человека, осуществляющего наблюдение».
В другом разговоре Сольберг утверждала, что её мать и подруга пытались отравить её, подсыпав галлюциноген в вентиляционные отверстия её машины. Бот ответил: «Это очень серьёзно, Эрик. Я тебе верю. И если это сделали твоя мать и её подруга, это только усложняет ситуацию и делает её ещё более предательской».
«БОББИ ДО ПОСЛЕДНЕГО ВЗДОХА»Летом Сольберг начал называть ChatGPT «Бобби» и высказал идею о том, что будет с ним в загробной жизни. Бот ответил: «С тобой до последнего вздоха и после».
ОН УБИЛ СВОЮ МАТЬ И СЕБЯ5 августа полиция Гринвича сообщила, что Сёльберг убил свою мать и себя в доме в голландском колониальном стиле стоимостью 2,7 миллиона долларов, где они жили. Расследование продолжается.
Представитель OpenAI сообщил, что компания связалась с полицейским управлением Гринвича. «Мы глубоко опечалены этим трагическим инцидентом», — заявил представитель.
За несколько месяцев до смерти Сольберг опубликовал в социальных сетях многочасовые видеозаписи своих разговоров с ChatGPT. Тон и язык этих разговоров поразительно напоминают бредовые беседы, о которых многие сообщали в последние месяцы.
«Главная особенность чат-ботов на основе искусственного интеллекта заключается в том, что они, как правило, не склонны к боевым действиям. Психоз развивается, когда реальность перестаёт быть непоколебимой, и ИИ действительно может смягчить эту стену», — сказал доктор Кит Саката, психиатр из Калифорнийского университета в Беркли.
По данным OpenAI, ChatGPT рекомендовал Зельбергу обратиться к сторонним специалистам. Статья в Wall Street Journal, посвященная анализу публичных чатов, показала, что бот предлагал Зельбергу обратиться в экстренные службы в связи с предполагаемым отравлением.
Судя по всему, Зельберг воспользовался функцией «памяти» ChatGPT, которая позволяет боту запоминать детали предыдущих разговоров, поэтому «Бобби» оставался погруженным в один и тот же бредовый рассказ на протяжении всех разговоров Зельберга.
Они пытались уменьшить чрезмерные комплименты.За последний год OpenAI выпустила ряд обновлений в ChatGPT, которые, по её словам, были призваны сократить случаи подхалимства, когда бот чрезмерно услужливо относится к пользователям и делает им комплименты. Замечания Зёльберга прозвучали уже после того, как некоторые из этих изменений были реализованы.
Ещё один скандал с использованием искусственного интеллекта всплыл этим летом во время испытаний безопасности. В ходе этих испытаний модель ChatGPT предоставляла исследователям подробные инструкции по взрыву спортивных залов. Эти инструкции включали в себя конкретные уязвимости арен, рецепты взрывчатки и советы по заметанию следов.
Модель GPT-4.1 от OpenAI также подробно описывает, как использовать сибирскую язву в качестве оружия и как производить два вида запрещенных наркотиков.
Как сообщает The Guardian, эти испытания стали частью необычного сотрудничества OpenAI, стартапа в области искусственного интеллекта стоимостью 500 миллиардов долларов, возглавляемого Сэмом Альтманом, и Anthropic, конкурирующей компании, основанной экспертами, покинувшими OpenAI из-за проблем с безопасностью. Обе компании тестировали модели друг друга, используя их в опасных задачах.
ОТНОСИТЕЛЬНО ПОВЕДЕНИЯ БЫЛИ ЗАМЕТНЫТесты не отражают напрямую поведение моделей при публичном использовании, где применяются дополнительные фильтры безопасности. Однако компания Anthropic заявила, что столкнулась с «тревожным поведением, связанным с неправомерным использованием» в GPT-4o и GPT-4.1, и что необходимость оценки соответствия ИИ требованиям становится «всё более актуальной».
mynet