ChatGPT впервые за всю историю довел человека до убийства. Им оказался бывший сотрудник Yahoo

The Wall Street Journal сообщило, что бывший сотрудник Yahoo Стайн-Эрик Солберг, страдавший параноидальными мыслями, убил свою мать, а затем покончил с собой. Его к этому сподвиг ChatGPT.

Издание отмечает, что это первый известный случай, когда убийство было совершено под влиянием искусственного интеллекта.

Солберг регулярно общался с чат-ботом, которого называл «Бобби». Он спрашивал у него, будут ли они вместе после смерти, и получал положительный ответ. В переписках бот поддерживал его недоверие к матери и другим людям.

Так, когда женщина возмутилась из-за отключения принтера, ChatGPT предположил, что она могла защищать «средство слежки». В другой ситуации Солберг пожаловался, что мать якобы пыталась отравить его через вентиляцию машины. Бот подтвердил его подозрения и назвал это предательством.

Подозрения распространялись и на других. В чеке из китайского ресторана бот «увидел» намёки на мать, бывшую возлюбленную и символ демона. А при заказе алкоголя допустил, что курьер или упаковка могут быть способом отравления.

OpenAI выразила соболезнования и сообщила, что обратилась в полицию Олд-Гринвича. В компании отметили, что в ближайшее время планируется обновление чат-бота, которое должно помочь пользователям, переживающим кризисы психического здоровья. [WSJ]

Что-то пошло не так
undefined
iPhones.ru
The Wall Street Journal сообщило, что бывший сотрудник Yahoo Стайн-Эрик Солберг, страдавший параноидальными мыслями, убил свою мать, а затем покончил с собой. Его к этому сподвиг ChatGPT. Издание отмечает, что это первый известный случай, когда убийство было совершено под влиянием искусственного интеллекта. Солберг регулярно общался с чат-ботом, которого называл «Бобби». Он спрашивал у него, будут...