ИИ в психиатрии и психотерапии: от VR-аватаров до этических стоп-сигналов
Психотерапия переживает странную эволюцию: у «дивана» появляется цифровая тень. На одной чаше весов — доступность и масштабируемость помощи, на другой — доверие, этика и безопасность. Где проходит граница допустимого?
Cedars-Sinai: VR-аватары и «Xaia» — терапия как переживание
В Cedars-Sinai пошли дальше обычных чат-ботов и собрали «иммерсивного терапевта» Xaia для Apple Vision Pro: пациент общается с ИИ-аватаром в виртуальном пространстве, а диалог выстроен на основе терапевтических протоколов и сотен стенограмм, созданных и отобранных клиницистами. Авторы подчёркивают: это дополнение, а не замена живого психотерапевта — попытка закрыть дефицит доступа, когда на «раз в неделю» физически не хватает специалистов. По данным самого центра, ранние пилоты показывают хорошую переносимость и желание пациентов возвращаться к VR-сеансам. В январе 2025 Cedars-Sinai опубликoвал сводку двух исследований: ИИ может быть эффективным инструментом поддержки психотерапии, включая форматы с аватаром; при этом акцент — на этичном дизайне и клиническом надзоре. Осенью локальные СМИ Лос-Анджелеса показывали кейсы хронической боли и тревоги, где Xaia использовалась как дополнительная помощь между сессиями. (https://www.cedars-sinai.org/newsroom/can-ai-improve-mental-health-therapy/)

Первое клиническое испытание Therabot: что показал рандомизированный дизайн?
Команда Дартмутского колледжа провела первое рандомизированное клиническое испытание генеративного ИИ-«терапевта» (Therabot) и опубликовала результаты в NEJM AI (март 2025). Участники с депрессивной и тревожной симптоматикой, а также риском РПП, получали доступ к боту в течение нескольких недель; по итогам зафиксировано существенное улучшение симптомов по стандартизированным шкалам. Авторы осторожны в выводах: технология перспективна для масштабирования помощи, но нужны более крупные выборки и репликации, а также строгий клинический контроль. (home.dartmouth.edu)
Параллельно в реестре клинических исследований появились протоколы, где Therabot тестируют в специфических сценариях (например, тревога/сниженное настроение при сопутствующем употреблении каннабиса) — это сигнал, что исследовательское поле быстро дифференцируется по нозологиям и контекстам. (clinicaltrials.gov)
Предостережения: что не так с «цифровыми терапевтами»?
Стэнфорд в июне 2025 опубликовал предостерегающую работу: LLM-боты «психотерапевты» способны воспроизводить стигматизирующие ответы и, в крайних случаях, давать опасные рекомендации, например при суицидальном контенте. Исследователи подчёркивают: место ИИ — в поддерживающих задачах (скрининг, документация, стандартизированные «пациенты» для обучения), но не в самостоятельной терапии и тем более кризисном реагировании. (news.stanford.edu)
USC в тот же день опубликовал результаты о «распаде раппорта»: большие языковые модели хуже людей выстраивают лингвистическое взаимонастраивание (entrainment) — тонкую подстройку ритма, лексики и эмоций, без которой терапевтический альянс проседает. Отсюда простой вывод: язык — не всё; без «синхронии» разговор лечит хуже. (USC Viterbi | School of Engineering)
Это согласуется с находками вычислительной лингвистики: анализ диалогов в ключе CBT показывает, что LLM уступают как профессионалам, так и обученным помощникам именно по метрикам энтрейнмента; авторы предлагают использовать эти метрики как объективные индикаторы «человечности» ответа в цифровой психотерапии. (aclanthology.org)
Наконец, новые данные RAND о поведении популярных чат-ботов при вопросах о суициде: системы в целом неплохо справляются с «очевидно безопасными» и «очевидно опасными» сценариями, но нестабильны на промежуточных уровнях риска, где как раз и нужна тонкая оценка и эскалация. Это ещё один аргумент против автономной «цифровой скорой помощи». (rand.org)
Где проходит граница доверия?
Если отбросить хайп, картина вырисовывается трезвая. Где ИИ уместен прямо сейчас: самопомощь между сессиями, напоминания, дневники, психообразование; «симуляторы пациентов» для обучения клиницистов; ассистенты для рутинной документации, выписок и маршрутизации пациентов. Cedars-Sinai подчёркивает дополняющий характер VR-аватаров; клинические пилоты показывают приемлемость, а не замену терапии. (cedars-sinai.org). Где нужен строгий клинический контур: первичная диагностика и ведение умеренной/тяжёлой депрессии, тревоги, РПП, ПТСР; всё, что связано с суицидальным риском или психозом; работа с уязвимыми группами (подростки и молодые взрослые). Метрики качества для «цифрового терапевта»: не только клинические шкалы, но и лингвистическая синхронность; устойчивость на пограничных кейсах (контрольные «вилочки» риска); прозрачность источников, фиксация решений, пути подхода к человеку.
Этическое правило коротко
Не обещать то, чего нет. Чётко маркировать систему как ИИ-помощника, а не терапевта. Кнопка «немедленной эскалации» — на видном месте. (news.stanford.edu). Контекст важнее текста. Локальные рекомендации по кризисной помощи, проверка триггеров, чёрные списки «опасных подсказок». (https://www.rand.org/news/press/2025/08/ai-chatbots-inconsistent-in-answering-questions-about.html). Учёт уязвимости. Отдельные протоколы для подростков и молодых пользователей; Stanford прямо называет пары «ИИ-друг + молодёжь» опасной смесью. (Stanford Medicine). Надзор и аудит. Клинический куратор, логирование, внешние аудиторы, регулярные стресс-тесты на предвзятость и «галлюцинации». (news.stanford.edu)
Чему учит нас «цифровая тень»?
ИИ уже может поддерживать терапию — как костыль между сессиями, как тренажёр, как блокнот. Но быть терапевтом он пока не может: ему не хватает раппорта, стабильности в серых зонах риска и ответственности. Значит, мудрая стратегия — не искать в машине душу, а проектировать интерфейсы доверия: с лестницами эскалации к человеку, прозрачной логикой и понятными пределами. И да — это не отменяет главного: иногда человеку нужен живой взгляд и пауза, в которой тебя по-человечески услышали.