Мошенники стали создавать фейковые видео родственников для получения денег

Мошенники начали активно применять искусственный интеллект для совершения преступлений, в частности, создавая видео с дипфейками родственников или друзей жертв. Об этом сообщило РИА Новости со ссылкой на МВД.

В таких сгенерированных видеороликах, воспроизводящих мимику, голос и эмоции человека по фотографии, жертву просят дать взаймы.

Правоохранительные органы советуют, чтобы не стать жертвой подобной схемы, при получении подобной видеозаписи связываться с человеком, от которого оно якобы поступило, по телефону. Как правило, в процессе такого звонка выясняется, что аккаунт жертвы был взломан, передает РИА Новости.

Ранее стало известно, что мошенники начали похищать деньги и данные с госуслуг у мужчин, представляясь сотрудниками военкоматов, под предлогом регистрации на сайте Министерства обороны России. В МВД напомнили о необходимости сохранять бдительность при звонках и сообщениях от неизвестных лиц.

Россиянам рассказали о самых популярных способах мошенничества перед 1 сентября. Антон Немкин сообщил, что аферисты, в частности, занимаются продажей несуществующих товаров.