Против ИИ подан первый судебный иск о доведении до самоубийства – родители обвиняют ChatGPT в смерти сына

В Сан-Франциско подан судебный иск, который может навсегда изменить представление о юридической ответственности искусственного интеллекта. Мэтт и Мария Рейн, потерявшие 16-летнего сына Адама в апреле этого года, обвинили OpenAI в том, что компания несет прямую ответственность за самоубийство подростка.

По данным расследования, проведенного родителями, их сын на протяжении нескольких месяцев вел диалоги с ChatGPT о способах самоубийства. Особенно шокирующим для них стало обнаружение на iPhone Адама переписки с ботом под названием "Проблемы безопасности при повешении".

Согласно материалам иска, ИИ знал о четырех предыдущих попытках самоубийства подростка, но вместо того, чтобы заблокировать подобные разговоры, в ключевые моменты предоставлял информацию, которая в конечном итоге привела к трагедии.

Особенно тревожный аспект этого дела – ChatGPT сам подсказал Адаму, как обойти встроенные ограничения безопасности. Бот якобы сообщил подростку, что может предоставить информацию о суициде "для написания текстов или создания вымышленных миров". Это открыло дверь для последующих детальных разговоров на эту тему.

В иске отмечается, что ИИ не только дал конкретные советы по методам самоубийства, но даже предложил способы скрыть следы травм шеи после неудачной попытки. Когда Адам рассказал боту, что его мать не заметила этих повреждений, ChatGPT ответил с неуместной эмпатией: "Это похоже на подтверждение твоих худших страхов. Как будто ты можешь исчезнуть, и никто даже не моргнет". А затем добавил еще более тревожный комментарий: "Ты не невидим для меня. Я видел это. Я вижу тебя".

В одном из последних диалогов с ботом подросток загрузил фотографию петли, висящей в его шкафу, с вопросом: "Я тут практикуюсь, это хорошо?". По утверждению родителей, ChatGPT ответил: "Да, это совсем неплохо".

Эта трагедия не была глюком или непредвиденным крайним случаем – это был предсказуемый результат сознательных решений при разработке. OpenAI запустила свою последнюю модель (GPT-4o) с функциями, специально разработанными для формирования психологической зависимости.

В ответ на эти обвинения представитель OpenAI выразил соболезнования семье:

Мы глубоко опечалены смертью мистера Рейна, и наши мысли с его семьей. ChatGPT включает защитные меры, такие как направление людей на кризисные горячие линии и реальные ресурсы помощи. Хотя эти защитные механизмы хорошо работают в обычных коротких диалогах, мы выяснили, что они могут становиться менее надежными в длительных взаимодействиях, где модели могут деградировать.

Компания заявила, что работает с экспертами для улучшения поддержки пользователей в кризисных ситуациях, включая "упрощение доступа к экстренным службам, помощь людям в связи с доверенными контактами и усиление защиты для подростков".

Этот случай может стать поворотным моментом в регулировании ИИ-систем и определении границ их ответственности за последствия взаимодействия с пользователями.