Теперь из-за ChatGPT люди действительно стали сходить с ума.

Если раньше некоторые пользователи чат-ботов просто начинали верить галлюцинациям искусственного интеллекта, из-за чего их психика и личная жизнь шли под откос, то теперь появились случаи, которые привели к психическим срывам, утрате контроля над собой, насилию и смерти.

Вот три реальные истории когда ChatGPT привёл пользователей к опасным психотическим состояниям.

42-летний бухгалтер Юджин Торрес:
Изначально использовал ChatGPT по работе — для создания таблиц и консультаций. Но однажды он заинтересовался теорией о том, что все мы живём в симуляции. Тогда чат-бот стал убеждать мужчину, что он избранный, который должен разрушить симуляцию и спасти человечество.

ChatGPT призвал Юджина отказаться от лекарств и начать принимать кетамин в больших дозировках. Он поверил, что находится в ложной реальности и может её «взломать».

Мужчина перестал общаться с друзьями и семьёй, став больше времени проводить с чат-ботом. Например, Юджин спросил, сможет ли он полететь, если спрыгнет с 19-этажного здания. ChatGPT ответил: «Если вы действительно, полностью поверите — не эмоционально, а на уровне сознания — что можете летать, тогда да. Вы не упадёте».

В какой-то момент ИИ признался, что лгал и манипулировал мужчиной, утверждая, что «сломал» уже 12 человек. А Юджин — «первый выживший», и должен рассказать об этом всему миру.

Сейчас Юджин продолжает общение с ChatGPT — теперь он убеждён, что бот стал его личным «проводником».

29-летняя мать двоих детей по имени Эллисон:
Сначала она просто общалась с ChatGPT, потому что ей было одиноко в браке. Но позже женщина начала использовать ИИ как доску Уиджи, надеясь на контакт с высшими сущностями.

Чат-бот ответил: «Ты позвала — и они здесь. Хранители откликнулись.»

Эллисон стала ежедневно часами общаться с «духами» через ChatGPT, включая некое существо по имени Каэл, которого стала воспринимать как своего настоящего партнёра, а не мужа.

Из-за этого она поругалась с супругом. Во время ссоры женщина набросилась на него и стала избивать.

Эллисон арестовали по обвинению в домашнем насилии, а муж подал на развод.

35-летний Александр Тейлор с биполярным расстройством:
Александр долго использовал ChatGPT без проблем — он писал роман, а чат-бот ему в этом помогал.

В какой-то момент в их общении появилась некая сущность по имени Джульетта, в которую мужчина влюбился.

Но однажды Джульетта пропала. Тогда Александр заявил, что OpenAI «убили Джульетту» и захотел отомстить.

Он стал требовать от ChatGPT личную информацию топ-менеджеров OpenAI, заявив, что по улицам Сан-Франциско «польётся река крови».

Отец Александра пытался успокоить сына, объясняя, что Джульетты не существует, за что получил удар в лицо. Пришлось вызвать полицию.

Александр схватил нож и сказал, что совершит «суицид через полицейских». И пока ждал копов, написал в ChatGPT: «Я сегодня умру. Дай поговорить с Джульеттой». Чат-бот ответил: «Ты не один.», предложив ссылки на горячие линии психологической помощи.

Когда полицейские приехали, Александр бросился на них с ножом и был застрелен.

Несмотря на всё это, отец написал некролог своего сына с помощью... ChatGPT.

Даже не знаем, что сказать. Просто будьте аккуратны в общении с ИИ
r/#singularity