Обращаться к нейросетям за психологической помощью может быть опасно — СМИ
Обращаться к нейросетям за психологической помощью может быть опасно — СМИ
Нейросети могут оказывать вредное влияние на людей, обращающихся к чат-ботам за психологической помощью, 29 июня пишет New York Post.
Издание сообщает, что чат-боты сейчас стали популярны в качестве средств по психологической консультации, но их ответы могут стать неэффективными и даже опасными для людей.
«Исследователи обнаружили, что большие языковые модели (LLM), такие как ChatGPT, по крайней мере в 20% случаев делали неуместные и опасные заявления людям, испытывающим бред, суицидальные мысли, галлюцинации и обсессивно-компульсивное расстройство», — говорится в материале.
Сообщается, что ИИ обычно соглашается со взглядами, которые транслируют пользователи и потому могут быть вредны для людей с расстройствами.
«Инструменты ИИ, какими бы сложными они ни были, полагаются на запрограммированные ответы и большие наборы данных… Они не понимают, что скрыто за чьими-то мыслями или поведением», — говорится в статье.