"Ты не нужен…пожалуйста, умри": ИИ от Google говорит студенту, что он "истощение Земли" (Topmember)

«Это выглядело очень прямолинейно», — говорит Редди. «Так что это определенно напугало меня и не на один день, я бы сказал». Его сестра, Сумеда Редди, изо всех сил пыталась найти обнадеживающее объяснение тому, что заставило Gemini внезапно сказать ее брату, чтобы он прекратил жить:

«Что-то проскользнуло сквозь щели. Есть много теорий от людей с глубоким пониманием того, как работает gAI [генеративный искусственный интеллект], которые говорят, что «такие вещи происходят постоянно», но я никогда не видела и не слышала о чем-то настолько злонамеренном и, по-видимому, адресованном читателю, которым, к счастью, был мой брат, который в тот момент получил мою поддержку".

Её брат считает, что технологические компании должны нести ответственность за подобные инциденты. «Я думаю, что здесь возникает вопрос о причинении вреда. Если человек угрожает другому человеку, это может повлечь за собой какие-то последствия или дискуссию на эту тему», — сказал он.

В своем ответе, который выглядит почти комично, компания Google опубликовала заявление для CBS News, в котором назвала ответ Gemini просто «бессмысленным»:

«Большие языковые модели иногда могут давать бессмысленные ответы, и это как раз такой пример. Этот ответ нарушает наши правила и мы приняли меры, чтобы предотвратить появление подобных результатов».

Google заявляет, что в Gemini есть фильтры безопасности, которые не позволяют чат-ботам участвовать в неуважительных, сексуальных, жестоких или опасных обсуждениях и поощрять вредоносные действия.

В то время как Google назвал это сообщение «бессмысленным», брат и сестра заявили, что оно было более серьёзным, описав его как сообщение с потенциально фатальными последствиями:

«Если бы кто-то, кто был один и находился в подавленном состоянии, возможно, подумывал о причинении себе вреда, прочитал бы что-то подобное, это могло бы подтолкнуть его к краю пропасти», — сказал Редди в интервью CBS News.

Это не первый случай, когда чат-боты Google получают замечания за потенциально опасные ответы на запросы пользователей.

В июле журналисты обнаружили, что ИИ Google давал неверную, возможно, смертельную информацию по различным вопросам о здоровье, например, рекомендовал людям съедать «хотя бы по одному маленькому камушку в день» для получения витаминов и минералов.

Google сообщил, что с тех пор он ограничил включение сатирических и юмористических сайтов в обзоры о здоровье и удалил некоторые результаты поиска, ставшие вирусными.

Однако Gemini — не единственный чатбот, который выдаёт вызывающие беспокойство результаты.

Мать 14-летнего подростка из Флориды, который в феврале покончил жизнь самоубийством, подала иск против другой компании, занимающейся разработкой искусственного интеллекта, Character.ai Она утверждала, чатбот подтолкнул ее сына к самоубийству.

Также известно, что ChatGPT от OpenAI выдаёт ошибки или вымышленные истории, известные как «галлюцинации». Эксперты подчёркивают потенциальный вред от ошибок в системах ИИ: от распространения дезинформации и пропаганды до переписывания истории.