Эксперт Дешкина предупредила об использовании аферистами нейросети

Мошенники в новом году будут использовать три самые распространенные в современном мире схемы.

В 2025 году, согласно экспертным прогнозам, каждая третья мошенническая атака будет осуществляться с использованием технологий, основанных на искусственном интеллекте. Это приведет к миллионам подобных инцидентов каждый месяц.

С таким заявлением выступила Татьяна Дешкина, заместитель директора департамента развития продуктов и директор продуктового портфеля компании VisionLabs, в интервью для «Газеты.Ru».

Дешкина обозначила три ключевых сценария, которые мошенники, вероятно, будут использовать в своих уловках. На первом месте стоит использование дипфейков. С помощью новых технологий, позволяющих создавать фальшивые изображения, видео и голосовые записи в режиме реального времени, злоумышленники смогут подделывать образы друзей, родственников, коллег и даже известных личностей. Эти подделки будут нацелены на кражу денег или манипуляцию общественным мнением.

Второй угрозой Дешкина назвала обман пользователей дейтинговых платформ. Мошенники будут создавать фальшивые профили, оформленные фотографиями несуществующих людей, которые будут управляться чат-ботами. Благодаря инструментам искусственного интеллекта злоумышленники смогут одновременно разговаривать с десятками тысяч потенциальных жертв.

В эпоху возрождения интереса к подаркам в соцсетях и мессенджерах мошенники все активнее начнут обращаться к пользователям напрямую с просьбой о подарках, что смещает фокус с просят помощи в деньгах на более манипулятивные схемы.

Третий сценарий заключается в том, что ИИ станет инструментом для определения уязвимых жертв. С помощью продвинутых нейросетей мошенники смогут отслеживать профили пользователей в социальных сетях, которые выставляют свою уязвимость на показ через посты, делая акцент на своих жизненных трудностях.