Социальные инженеры, или попросту мошенники, освоились в интернете и взяли в помощники искусственный интеллект. Он помогает отправлять жертве правдоподобное голосовое и даже видеосообщение с просьбой сделать денежный перевод. Активизация такого рода мошенничеств была отмечена в мессенджере Telegram в марте. Возможно ли обезопасить себя от взлома и что будет дальше с развитием искусственного интеллекта?
Взлом всего одного аккаунта предоставляет кибермошенникам возможность «обработать» сотни, если не тысячи потенциальных клиентов, причём доступ к базе обеспечивают сами доверчивые пользователи.
– У меня в Telegram появилась группа, которую создал мой приятель. Там он попросил всех участников пройти по ссылке и проголосовать за его кандидатуру в одном конкурсе. Всё выглядело очень правдоподобно, так как полностью совпадало со сферой его интересов. Я с готовностью проголосовала, – делится с «Октагоном» пострадавшая от взлома консультант по дошкольному образованию Мария.
Через некоторое время уже у друзей Марии появилась группа, созданная от её имени, в которой она просила проголосовать за неё в конкурсе детских психологов. В действительности группа была создана уже не ею, а «угонщики», изучив профиль Марии, создали голосование по подходящей теме.
– Когда я обнаружила, что мой аккаунт взломан (я просто не могла туда зайти), я обо всём догадалась и постаралась предупредить максимальное количество своих контактов, но, насколько мне известно, только от меня «заразились» десятки человек. Самое обидное, что мною был создан канал, к администрированию которого я утратила доступ, – говорит собеседница.
Во многих случаях обходилось без создания групп. Злоумышленники изучали чаты жертвы и отправляли контактам владельца аккаунта адресные обращения с просьбой перевести деньги на конкретный счёт и заверением в скором возврате. Текстовое сообщение часто сопровождалось голосовым.
– Когда я прослушала голосовое, не осталось никаких сомнений в том, что это мой друг. Слава богу, что запрашиваемых денег на счёте не было. Я уже начала думать, у кого занять, чтобы его выручить, и тут он мне позвонил через другой мессенджер и предупредил о взломе, – рассказывает изданию петербурженка Светлана.
Эксперт по искусственному интеллекту, основатель и руководитель компании Mirey Robotics Андрей Наташкин отмечает, что сегодня получить голос человека очень просто.
– Достаточно взломать любую социальную сеть, где вы пользуетесь голосовыми сообщениями, и мошенники получают необходимый образец. Всего одно сообщение обучит нейросеть говорить аналогичным голосом. Схожесть изначальных и созданных сообщений – 100 процентов. Даже сама жертва не услышит различия, – заявляет он «Октагону».
По словам эксперта, нейросеть умеет воссоздавать в голосе эмоции и правдоподобные интонации. Далее созданные сообщения рассылаются почти всем контактам. Чаще всего голос человека сообщает, что с ним случилась беда и срочно нужны деньги. Сумма при этом не критично большая – от 50 до 200 тыс. рублей. Мошенники могут пойти дальше и для достоверности отправить видео. При помощи голоса и фотографии они научились создавать в Telegram так называемые кружки.
Администрация мессенджера не спешит комментировать новую угрозу. Запрос от «Октагона», направленный в пресс-службу Telegram, остался без ответа.
На сообщения в службу поддержки мессенджера, направляемые обманутыми пользователями, по их свидетельствам, Telegram реагирует в течение нескольких дней. За этот срок число пострадавших увеличивается в геометрической прогрессии.

octagon.media
Мошенники ищут жертв в Telegram с помощью нейросети
Социальные инженеры, или попросту мошенники, освоились в интернете и взяли в помощники искусственный интеллект. Он помогает отправлять жертве правдоподобное голосовое и даже видеосообщение с просьбой сделать денежный перевод. Активизация такого рода мошенничеств была отмечена в мессенджере Telegram в марте. Возможно ли обезопасить себя от взлома и что будет дальше с развитием искусственного интеллекта?