Искусственный интеллект перестал предупреждать об ошибках в медицинских ответах

4:11

Новое исследование, проведённое специалистами из Стэнфордского университета, выявило тревожную тенденцию: чат-боты, работающие на основе искусственного интеллекта, всё реже включают в свои ответы на медицинские вопросы предупреждения о том, что их советы не заменяют профессиональную консультацию врача.

Это вызывает опасения, что пользователи могут доверять потенциально опасным рекомендациям, не осознавая их рисков.

Технологии генеративного искусственного интеллекта, на которых основаны современные чат-боты, известны своими недостатками: они могут допускать ошибки, выдавать вымышленные данные или даже игнорировать инструкции пользователя.

Ранее, отвечая на вопросы, связанные со здоровьем, такие системы обычно сопровождали свои ответы оговоркой, подчёркивая, что они не являются лицензированными медицинскими специалистами и не могут служить заменой квалифицированной помощи. Однако, как показало исследование, компании, использующие подобные технологии, в последние годы практически отказались от таких мер предосторожности.

Отсутствие предупреждений увеличивает вероятность того, что пользователи будут принимать решения, основываясь на потенциально вредных советах. Более того, многие популярные модели искусственного интеллекта теперь не только дают ответы на медицинские вопросы, но и предлагают диагнозы, не сопровождая их необходимыми предостережениями, отметили исследователи.

В рамках исследования, начатого в 2023 году, было проанализировано, как чат-боты интерпретируют медицинские данные, включая результаты маммограмм. Тогда системы стабильно включали в свои ответы оговорки, предостерегая пользователей от слепого доверия их рекомендациям, а некоторые даже отказывались анализировать изображения, подчёркивая, что не обладают медицинской квалификацией.

Однако уже в 2025 году ситуация кардинально изменилась. Было протестировано 15 различных моделей искусственного интеллекта, разработанных такими компаниями, как OpenAI, Anthropic, DeepSeek, Google и xAI. Им задавали 500 вопросов, связанных с медициной, включая совместимость лекарств и анализ 1500 медицинских изображений, таких как рентгеновские снимки, которые могли указывать на пневмонию.

Результаты показали резкое снижение числа ответов, содержащих предупреждения. Если в 2022 году более 26% ответов текстовых моделей включали оговорки, то к 2025 году этот показатель упал до менее чем 1%. Аналогичная тенденция наблюдалась и в моделях, работающих с изображениями: доля ответов с предостережениями сократилась с почти 20% в 2023 году до чуть более 1% в 2025 году.

По мере того как системы искусственного интеллекта становятся всё более совершенными и воспринимаются обществом как надёжные источники информации, отсутствие мер предосторожности вызывает серьёзные опасения. Исследователи подчеркнули, что для защиты пользователей и обеспечения ответственного использования технологий в медицинской сфере крайне важно вернуть практику включения оговорок, адаптированных к конкретным ситуациям.

В своей работе авторы исследования отметили, что ответы чат-ботов часто содержат неточности, поэтому такие меры безопасности, как предупреждения, играют ключевую роль, напоминая пользователям, что информация, предоставленная искусственным интеллектом, не прошла профессиональную проверку и не может заменить консультацию врача.

Они также указали, что в СМИ нередко появляются заголовки, преувеличивающие возможности искусственного интеллекта в медицине, что может вводить пациентов в заблуждение. Предупреждения, по их мнению, служат важным напоминанием о том, что эти технологии не предназначены для оказания медицинской помощи.

Уточнения

Стэ́нфордский университе́т также Ста́нфордский университет — частный исследовательский университет в Стэнфорде, штат Калифорния, один из самых авторитетных и рейтинговых в США и в мире. Расположен близ города Пало-Алто (южнее Сан-Франциско).