Мужчина получил психоз, следуя совету ChatGPT по снижению потребления соли

Искусственный интеллект может помочь написать романтический стих или создать забавное изображение, но когда дело доходит до здоровья, к его советам стоит относиться со скепсисом. Врачи из Вашингтонского университета зафиксировали случай, достойный эпизода "Черного зеркала" – мужчина, следовавший диетическим рекомендациям ChatGPT, получил серьезное отравление бромидом и развил психоз.

Согласно отчету, опубликованному в журнале Annals of Internal Medicine: Clinical Cases, пациент на протяжении трех месяцев намеренно употреблял бромид натрия по рекомендации чатбота. История началась с того, что мужчина, ранее изучавший питание в колледже, решил не просто снизить потребление натрия, а полностью исключить хлорид из своей диеты. Проще говоря, он хотел отказаться от соли.

Не найдя подходящих рекомендаций в традиционных источниках, он обратился к ChatGPT с вопросом, чем можно безопасно заменить хлорид. ИИ предложил бромид в качестве альтернативы. Воодушевленный ответом, мужчина заказал в интернете бромид натрия и начал его регулярно употреблять.

Результат не заставил себя долго ждать. Мужчина поступил в отделение неотложной помощи с паранойей, утверждая, что его пытается отравить сосед. В больнице он отказывался пить воду, несмотря на жажду, и вскоре у него развились зрительные и слуховые галлюцинации, переросшие в полномасштабный психотический эпизод. После попытки сбежать из больницы врачи были вынуждены поместить его на принудительное психиатрическое лечение.

Чтобы вы понимали, откуда ChatGPT мог надумать дать этот полезный совет – бромид действительно широко использовался в медицине начала 20 века для лечения бессонницы и тревожности. Однако со временем стало известно, что в высоких или хронических дозах он токсичен и может вызывать нейропсихиатрические проблемы. К 1980-м годам бромид был исключен из большинства лекарств, и случаи отравления бромидом, или бромизма, стали редкостью.

Врачи подозревали бромизм с самого начала, и когда пациент смог связно говорить, он подтвердил их догадки. После трех недель лечения внутривенными жидкостями и антипсихотиками мужчина полностью восстановился и был выписан из больницы. На двухнедельном контрольном осмотре его состояние оставалось стабильным.

У врачей не было доступа к истории чата пациента с ИИ, но когда они сами задали ChatGPT 3.5 вопрос о замене хлорида, система действительно упомянула бромид. Исследователи отметили, что ИИ, возможно, имел в виду промышленное использование бромида, например, для чистки, а не для потребления человеком. Однако, система не предоставила предупреждения об опасности употребления бромида и не уточнила, для каких целей пользователь интересуется заменой.

"Хотя могут служить мостом между учеными и неакадемическим населением, ИИ также несет риск распространения информации вне контекста", –

Врачи отметили в своем отчете, что инструменты вроде ChatGPT могут быть полезными, они также несут риск предоставления опасной информаци вне контектса. И действительно, настоящий медэксперт вряд ли порекомендовал бы переход на бромид кому-то, обеспокоенному потреблением соли.

Порой, для здравого смысла стоит положиться на человека, а не чатбот.