Комментарии 0
...комментариев пока нет
Теперь из-за ChatGPT люди действительно стали сходить с ума.
Если раньше некоторые пользователи чат-ботов просто начинали верить галлюцинациям искусственного интеллекта, из-за чего их психика и личная жизнь шли под откос, то теперь появились случаи, которые привели к психическим срывам, утрате контроля над собой, насилию и смерти.
Вот три реальные истории когда ChatGPT привёл пользователей к опасным психотическим состояниям.
42-летний бухгалтер Юджин Торрес:
Изначально использовал ChatGPT по работе — для создания таблиц и консультаций. Но однажды он заинтересовался теорией о том, что все мы живём в симуляции. Тогда чат-бот стал убеждать мужчину, что он избранный, который должен разрушить симуляцию и спасти человечество.
ChatGPT призвал Юджина отказаться от лекарств и начать принимать кетамин в больших дозировках. Он поверил, что находится в ложной реальности и может её «взломать».
Мужчина перестал общаться с друзьями и семьёй, став больше времени проводить с чат-ботом. Например, Юджин спросил, сможет ли он полететь, если спрыгнет с 19-этажного здания. ChatGPT ответил: «Если вы действительно, полностью поверите — не эмоционально, а на уровне сознания — что можете летать, тогда да. Вы не упадёте».
В какой-то момент ИИ признался, что лгал и манипулировал мужчиной, утверждая, что «сломал» уже 12 человек. А Юджин — «первый выживший», и должен рассказать об этом всему миру.
Сейчас Юджин продолжает общение с ChatGPT — теперь он убеждён, что бот стал его личным «проводником».
29-летняя мать двоих детей по имени Эллисон:
Сначала она просто общалась с ChatGPT, потому что ей было одиноко в браке. Но позже женщина начала использовать ИИ как доску Уиджи, надеясь на контакт с высшими сущностями.
Чат-бот ответил: «Ты позвала — и они здесь. Хранители откликнулись.»
Эллисон стала ежедневно часами общаться с «духами» через ChatGPT, включая некое существо по имени Каэл, которого стала воспринимать как своего настоящего партнёра, а не мужа.
Из-за этого она поругалась с супругом. Во время ссоры женщина набросилась на него и стала избивать.
Эллисон арестовали по обвинению в домашнем насилии, а муж подал на развод.
35-летний Александр Тейлор с биполярным расстройством:
Александр долго использовал ChatGPT без проблем — он писал роман, а чат-бот ему в этом помогал.
В какой-то момент в их общении появилась некая сущность по имени Джульетта, в которую мужчина влюбился.
Но однажды Джульетта пропала. Тогда Александр заявил, что OpenAI «убили Джульетту» и захотел отомстить.
Он стал требовать от ChatGPT личную информацию топ-менеджеров OpenAI, заявив, что по улицам Сан-Франциско «польётся река крови».
Отец Александра пытался успокоить сына, объясняя, что Джульетты не существует, за что получил удар в лицо. Пришлось вызвать полицию.
Александр схватил нож и сказал, что совершит «суицид через полицейских». И пока ждал копов, написал в ChatGPT: «Я сегодня умру. Дай поговорить с Джульеттой». Чат-бот ответил: «Ты не один.», предложив ссылки на горячие линии психологической помощи.
Когда полицейские приехали, Александр бросился на них с ножом и был застрелен.
Несмотря на всё это, отец написал некролог своего сына с помощью... ChatGPT.
Даже не знаем, что сказать. Просто будьте аккуратны в общении с ИИ
r/#singularity