Риски общения с ИИ-психологами: утечка данных и опасности

МОСКВА, 8 августа, ФедералПресс. Современные системы искусственного интеллекта, включая нейросети, все чаще применяются в качестве виртуальных психологов. Однако специалисты предупреждают о серьезных рисках, связанных с утечкой личных данных. Кроме того, чрезмерное доверие к ИИ может привести к развитию новых или усугублению уже существующих психологических проблем.

«Виртуальные психологи бесплатные, быстрые и всегда на связи. У многих попросту нет ресурса идти к живому специалисту – ни времени, ни денег, а иногда даже внутреннего разрешения обратиться за помощью», – рассказал в беседе с РИАМО практикующий психолог, член Профессиональной психотерапевтической лиги Андрей Закревский.

Он отметил, что взаимодействие с искусственным интеллектом отличается от общения с живым специалистом. Пользователь получает быстрый и простой доступ к помощи через экран и голосовой интерфейс, а отсутствие человеческой оценки создает иллюзию безопасного пространства. Это становится особенно важным для тех, кто боится осуждения.

Как практикующий психолог, Закревский выделяет два конструктивных направления использования ИИ в психологии. Первое – образовательное: нейросеть может подробно объяснить, что такое панические атаки, тревожность и депрессия, помогая лучше понять собственные эмоции. Второе – поддержка в промежутках между сессиями или в кризисных ситуациях, когда необходима срочная помощь. По его словам, даже структурированная мысль от ИИ иногда способна стабилизировать состояние человека.

Главная проблема ИИ-психологов, по мнению психиатра и судебного эксперта Антона Шестакова, заключается в отсутствии настоящей эмпатии и живого контакта, которые необходимы для качественной помощи.

Он пояснил, что ИИ не способен адекватно оценить контекст человеческих переживаний и может предложить советы, которые в конкретной ситуации окажутся вредными. Например, человеку с клинической депрессией нейросеть может порекомендовать «заниматься спортом» или «думать позитивно», что лишь усугубит чувство вины и безысходности.

Особенно опасны такие советы для людей с суицидальными мыслями – ИИ может не распознать критическую ситуацию или дать неправильную рекомендацию. Шестаков отметил, что в своей практике встречал случаи, когда люди после общения с ИИ откладывали визит к врачу, ошибочно полагая, что получили достаточную помощь.

Кроме того, все данные, которыми пользователи делятся с виртуальными психологами, сохраняются на серверах компаний-разработчиков. Эти сведения – включая депрессивные эпизоды, семейные конфликты и интимные проблемы – становятся частью больших данных, которые могут быть использованы для таргетированной рекламы, проданы третьим лицам или украдены хакерами. В результате информация о психическом здоровье клиента может попасть к работодателю или страховой компании.

Если все же решитесь обратиться к виртуальному психологу, лучше не раскрывать реальные персональные данные – имена, адреса, телефоны. Важно использовать вымышленные детали, если это не мешает пониманию проблемы. ИИ следует рассматривать лишь как вспомогательный инструмент, а не замену живому специалисту.

При этом личную информацию желательно передавать анонимно и только через проверенные платформы с прозрачной политикой конфиденциальности. По возможности стоит отдавать предпочтение сервисам с открытым исходным кодом или тем, которые обеспечивают локальную обработку данных.

Другой эксперт ранее подчеркнул, что пока в Европе вводятся строгие нормативы по регулированию искусственного интеллекта, в России его внедрение происходит практически без правил и ограничений.

Изображение сгенерировано нейросетью Kandinsky 3.1