Мошенники освоили нейросети: противостоять обману всё труднее. Как защититься?

Преступники начали генерировать поддельные голосовые сообщения и видео с помощью нейросетей. Распознать подделку очень трудно: для исходника они используют аудиосообщения, отправленные пользователем в мессенджере или соцсети. Как этому противостоять, рассказал разработчик приложений Ваге Закарян агентству «Прайм».

— ИИ использовали в текстовом формате в виде чат-ботов для массовой рассылки потенциальным жертвам. Но сейчас нейросети генерируют не только голос по образцу его владельца, но и создают видео, в которых якобы снимался человек — дипфейки, — поясняет эксперт.

В новой схеме вымогатели используют огромное количество якобы достоверной информации: голосовые сообщения, собранные из фрагментов аудиофайлов владельца аккаунта, данные паспорта и поддельные банковские карты. Чтобы не стать жертвой кибермошенников, специалист советует снизить вероятность взлома аккаунта: сгенерировать сложный пароль, установить двухфакторную аутентификацию, а аудиосообщения и пересланные кому-то персональные данные удалять.

Если вы сомневаетесь, действительно ли знакомый обращается к вам за помощью или мошенники, получившие доступ к его аккаунту, лучше всего позвонить ему напрямую и убедиться, что просьба поступила именно от него. Эксперт уточняет, что искусственный интеллект помогает и бороться со злоумышленниками — в соцсетях ложные сообщения часто даже не доходят до адресатов, поскольку их блокируют алгоритмы.

Ранее в Петрозаводске женщина отдала почти миллион, что защитить свои данные на «Госуслугах».

Информация на этой странице взята из источника: https://gubdaily.ru/news/moshenniki-osvoili-nejroseti-protivostoyat-obmanu-vse-trudnee-kak-zashhititsya/