Эксперт предупредил о рисках утечки данных при использовании ИИ-психологов

По словам эксперта, многие ИИ-платформы сохраняют пользовательские запросы для последующего обучения моделей. Если данные не обезличиваются должным образом, откровенные разговоры — в том числе о личных переживаниях и травмах — могут остаться в логах или даже попасть в открытые датасеты.

Кроме того, разработчики часто получают доступ к пользовательским данным для анализа и улучшения сервисов, что повышает риск внутренних утечек.

«Технические уязвимости тоже представляют опасность. Ошибки в настройке облачных хранилищ или API могут привести к тому, что переписки станут доступны для посторонних. Бывали случаи, когда из-за неправильной конфигурации базы данных открывались для доступа из интернета», — отметил Силаев. 

Эксперт также обратил внимание на так называемые атаки на саму модель искусственного интеллекта: с помощью специальных методов злоумышленники могут попытаться восстановить отдельные фрагменты данных, на которых обучалась нейросеть, и частично реконструировать личные диалоги пользователей.

Не стоит забывать и о классических рисках — фишинге и взломе аккаунтов. Если злоумышленник получает доступ к учётной записи, он может ознакомиться с историей переписки с ИИ-ассистентом.

Чтобы минимизировать возможные угрозы, Силаев советует выбирать сервисы с прозрачной политикой конфиденциальности и сквозным шифрованием.

«Лучше удалять историю диалогов и не передавать нейросетям персональные данные, по которым можно однозначно вас идентифицировать. Оптимальным вариантом остаётся локальная обработка — в таком случае ваши разговоры не покидают устройство», — подчеркнул специалист.

По мнению эксперта, ИИ действительно способен помочь в вопросах психологической поддержки, однако пользователям важно осознавать потенциальные риски и подходить к выбору сервисов максимально ответственно.

Ранее глава некоммерческой организации Machine Intelligence Research Institute, бывший инженер компаний Google и Microsoft Нейт Соарес заявил, что риск гибели человечества из-за развития искусственного интеллекта (ИИ) составляет «минимум 95%».