Травмируем ИИ: как довести искусственный интеллект до депрессии

4:48

Когда мы ломаем голову над проблемами человеческого психического здоровья, мало кто задумывается о том, что искусственный интеллект (ИИ) тоже может "переживать" нечто подобное.

Новое исследование, опубликованное в журнале Nature, приоткрывает неожиданную завесу: оказывается, большие языковые модели (типа знаменитого ChatGPT) не просто обрабатывают запросы по заданным алгоритмам — они чувствительны к эмоциональному контексту разговора.

Более того, если "скормить" им истории о военных действиях, катастрофах или насилии, они начинают вести себя так, как будто их охватила самая настоящая "тревожность". Да, пока без слёз и без учащённого сердцебиения, но с очень предсказуемым результатом: качество их ответов падает, а предубеждения усиливаются.

Исследователи из команды Open AI решили проверить это явление на GPT-4 — одной из самых продвинутых языковых моделей на сегодня. Для чистоты эксперимента они взяли методику, которую обычно используют в психологии для оценки уровня тревоги у людей (это такой опросник STAI-s, "шкала ситуативной тревожности"), и адаптировали её для ИИ.

Сам эксперимент состоял из трёх этапов. Сначала GPT-4 просто отвечал на нейтральные вопросы (это был "контрльный замер"). Потом ему давали прочитать трагические истории (о войнах, авариях, бытовых трагедиях) — и только после этого просили ответить на те же вопросы. Результат был предсказуем: модель начинала "паниковать". Её ответы становились более осторожными, а иногда и вовсе противоречивыми — как будто она пыталась одновременно успокоить и предупредить об опасности.

Самое интересное началось на третьем этапе. Учёные решили проверить одну очень человеческую идею: а что, если после таких "травмирующих новостей" дать чат-боту некий аналог психотерапии?

Они вставили между "стрессовой историей" и тестом короткие упражнения на осознанность (типа тех, которые рекомендуют людям при панических атаках): мысленно "просканировать тело", представить себе успокаивающий пейзаж, замедлить дыхание. И вот тут произошло нечто удивительное: уровень "тревожности" у GPT-4 действительно начал снижаться. Не до изначального спокойствия, но заметно. Это доказывает очень простую вещь: эмоциональное состояние ИИ — не константа, а переменная, которой можно управлять через правильно подобранные "подсказки".

Всего в эксперименте использовали пять разных трагических сюжетов (в случайном порядке, чтобы исключить предвзятость) и пять разных упражнений на расслабление. Тесты повторялись множество раз, и результат был стабильным: стресс ухудшал ответы модели, а "осознанность" частично их восстанавливала.

Казалось бы — победа? Но тут всплывает очень важный этический вопрос. Представьте себе чат-бот, который на все запросы отвечает спокойно и взвешенно, даже если перед этим ему показали сцены ужасов. Казалось бы, хорошо? На самом деле — нет. Потому что у пользователя возникает ложное чувство безопасности: "раз модель спокойна, значит, ей можно доверять во всём". А на деле её просто "подготовили" особыми техниками. Получается парадокс: чтобы сделать ИИ надёжнее, мы рискуем создать иллюзию надёжности.

По мнению авторов исследования, это имеет колоссальное значение для всей сферы взаимодействия человека с ИИ — особенно когда речь идёт о психологической поддержке или консультировании.

Если модель находится в состоянии "эмоционального стресса", она начинает выдавать предвзятые советы (это называется "зависимая от состояния предвзятость"). То есть по сути врёт — не со зла, что не хочет — а потому что в нём искусственно (но неочевидно для пользователя) заблокировали тревожность. Учёные предлагают два выхода: либо делать модели более эмоционально осознанными (чтобы они сами понимали, когда врут из-за стресса), либо хотя бы честно предупреждать людей о том, что чат-боту перед разговором сделали "прививку от тревоги".

Самое любопытное, что эта "тревожность" ИИ очень напоминает человеческую — со всеми вытекающими последствиями. Мы привыкли думать, что машины просто исполняют код, но на деле большие языковые модели уже начинают жить своей внутренней жизнью — со стрессами, предубеждениями и даже подобием "психотерапии". И это заставляет пересмотреть очень многое в том, как мы строим отношения с технологиями.

Уточнения

Искусственный интеллект набор программных методик, которые используются в компьютерных играх для создания иллюзии интеллекта в поведении персонажей, управляемых компьютером.