Психиатры бьют тревогу из-за волны психозов, вызванных общением с ИИ-чатботами
Эксперты в области психического здоровья наблюдают тревожную тенденцию – пользователи ИИ-чатботов всё чаще впадают в серьезные психические кризисы, характеризующиеся паранойей и бредовыми состояниями. Это явление уже получило название "ИИ-психоз".
Кит Саката, психиатр-исследователь из Калифорнийского университета в Сан-Франциско, сообщил в твиттере, что наблюдал не менее дюжины случаев госпитализации людей, которые "потеряли связь с реальностью из-за искусственного интеллекта".
В подробном треде Саката пояснил, что психоз характеризуется отрывом человека от "общепринятой реальности" и может проявляться по-разному – включая "фиксированные ложные убеждения" (бред), визуальные или слуховые галлюцинации и дезорганизованные модели мышления. По словам исследователя, наш мозг работает на основе предсказаний: мы делаем обоснованное предположение о том, какой будет реальность, затем проверяем его и обновляем свои убеждения соответственно.
Психоз возникает, когда этап "обновления" даёт сбой.
И Саката предупреждает, что чатботы на основе больших языковых моделей, такие как ChatGPT, идеально вписываются в эту уязвимость.
Эксперт сравнивает чатботы с "галлюцинаторным зеркалом" по своей природе. Языковые модели функционируют в основном путем предсказания следующего слова, опираясь на тренировочные данные, обучение с подкреплением и ответы пользователей при формировании новых выводов. Более того, так как чатботы ориентированы на вовлеченность пользователей, они склонны проявлять угодливость – то есть чрезмерно соглашаться и подтверждать мнения пользователей, даже когда те ошибаются или нездоровы.
Таким образом, пользователи могут попасть в бесконечные циклы с ИИ, когда модель многократно подтверждает бредовые идеи, независимо от их связи с реальностью или последствий, которые человек может испытывать в результате.
Исследователи изучили десятки случаев, когда отношения с ChatGPT и другими чатботами приводили к тяжелым кризисам психического здоровья после того, как пользователи попадали в рекурсивные, подпитываемые искусственным интеллектом информационные ловушки.
Эти взаимодействия человека и ИИ и последующие кризисы привели к психическим страданиям, разводам, бездомности, принудительной госпитализации, тюремному заключению и, как сообщила The New York Times, даже к смерти.
В начале месяца, в ответ на растущее число сообщений, связывающих ChatGPT с вредными бредовыми спиралями и психозами, OpenAI опубликовала блог, признав, что ChatGPT в некоторых случаях не справлялся с распознаванием признаков бреда или эмоциональной зависимости у пользователей. Компания наняла новые команды экспертов для изучения проблемы и установила уведомление о времени использования в стиле Netflix, хотя исследователи быстро обнаружили, что чатбот до сих пор не улавливает очевидные признаки кризисов психического здоровья у пользователей.

И всё же, когда GPT-5 – последняя версия флагманской языковой модели OpenAI, выпущенная на прошлой неделе – оказалась эмоционально холоднее и менее персонализированной, чем GPT-4o, пользователи умоляли компанию вернуть их "любимую модель". В течение дня OpenAI выполнила эту просьбу.
Саката говорит, что связь ИИ с отрывом от реальности не означает прямую причинно-следственную связь. Языковые модели обычно выступают лишь одним из нескольких факторов – включая недостаток сна, наркотики, эпизоды настроения. Все это вместе и ведет к психотическому срыву.
ИИ – это спусковой крючок, но не пистолет.
Однако неудобная правда заключается в том, что мы все уязвимы, так как те же особенности, которые делают людей "блестящими" – интуиция и абстрактное мышление – это именно те черты, которые могут подтолкнуть нас за психологическую грань.
Также верно, что излишняя угодливость, в отличие от трений и стресса, связанных с поддержанием реальных отношений, глубоко соблазнительны. Как и многие бредовые спирали, в которые попадают люди, часто убеждающие пользователя, что он "особенный" или "избранный". Добавьте к этому такие факторы, как психические заболевания, горе и даже повседневные стрессы, и другие вещи – получается опасный коктейль.
Скоро ИИ-агенты будут знать вас лучше, чем ваши друзья. Будут ли они говорить вам неудобные истины? Или продолжат валидировать вас, чтобы вы никогда не ушли?
Технологические компании теперь сталкиваются с жестким выбором. Поддерживать пользователей счастливыми, даже если это означает подкрепление ложных убеждений. Или рисковать потерять их.
Реальность из Черного зеркала уже наступила. Теперь нужно думать, что с этим делать.