Обращаться к нейросетям за психологической помощью может быть опасно — СМИ

Обращаться к нейросетям за психологической помощью может быть опасно — СМИ

Нейросети могут оказывать вредное влияние на людей, обращающихся к чат-ботам за психологической помощью, 29 июня пишет New York Post.

Издание сообщает, что чат-боты сейчас стали популярны в качестве средств по психологической консультации, но их ответы могут стать неэффективными и даже опасными для людей.

«Исследователи обнаружили, что большие языковые модели (LLM), такие как ChatGPT, по крайней мере в 20% случаев делали неуместные и опасные заявления людям, испытывающим бред, суицидальные мысли, галлюцинации и обсессивно-компульсивное расстройство», — говорится в материале.

Сообщается, что ИИ обычно соглашается со взглядами, которые транслируют пользователи и потому могут быть вредны для людей с расстройствами.

«Инструменты ИИ, какими бы сложными они ни были, полагаются на запрограммированные ответы и большие наборы данных… Они не понимают, что скрыто за чьими-то мыслями или поведением», — говорится в статье.