Эксперт предупредил о рисках утечки данных при использовании ИИ-психологов
По словам эксперта, многие ИИ-платформы сохраняют пользовательские запросы для последующего обучения моделей. Если данные не обезличиваются должным образом, откровенные разговоры — в том числе о личных переживаниях и травмах — могут остаться в логах или даже попасть в открытые датасеты.
Кроме того, разработчики часто получают доступ к пользовательским данным для анализа и улучшения сервисов, что повышает риск внутренних утечек.
«Технические уязвимости тоже представляют опасность. Ошибки в настройке облачных хранилищ или API могут привести к тому, что переписки станут доступны для посторонних. Бывали случаи, когда из-за неправильной конфигурации базы данных открывались для доступа из интернета», — отметил Силаев.
Эксперт также обратил внимание на так называемые атаки на саму модель искусственного интеллекта: с помощью специальных методов злоумышленники могут попытаться восстановить отдельные фрагменты данных, на которых обучалась нейросеть, и частично реконструировать личные диалоги пользователей.
Не стоит забывать и о классических рисках — фишинге и взломе аккаунтов. Если злоумышленник получает доступ к учётной записи, он может ознакомиться с историей переписки с ИИ-ассистентом.
Чтобы минимизировать возможные угрозы, Силаев советует выбирать сервисы с прозрачной политикой конфиденциальности и сквозным шифрованием.
«Лучше удалять историю диалогов и не передавать нейросетям персональные данные, по которым можно однозначно вас идентифицировать. Оптимальным вариантом остаётся локальная обработка — в таком случае ваши разговоры не покидают устройство», — подчеркнул специалист.
По мнению эксперта, ИИ действительно способен помочь в вопросах психологической поддержки, однако пользователям важно осознавать потенциальные риски и подходить к выбору сервисов максимально ответственно.
Ранее глава некоммерческой организации Machine Intelligence Research Institute, бывший инженер компаний Google и Microsoft Нейт Соарес заявил, что риск гибели человечества из-за развития искусственного интеллекта (ИИ) составляет «минимум 95%».