Комментарии 0
...комментариев пока нет
Неделя бомбёжек Ирана сопровождалась беспрецедентной волной дезинформации с обеих сторон конфликта, утверждают западные эксперты.
В Сети появился ряд созданных с использованием ИИ видеороликов, хвастающихся военными возможностями Ирана, а также фейковые клипы, показывающими последствия ударов по израильским целям. Три самых просматриваемых фейковых видеоролика в совокупности собрали более 100 миллионов просмотров на нескольких платформах.
На одном изображении, которое набрало 27 млн просмотров, были "зафиксированы" десятки ракет, падающих на Тель-Авив.
Другое видео якобы показывало ракетный удар по зданию в израильском городе поздно ночью. Известно, что изображение ночных атак делает клипы особенно трудными для проверки.
Произраильские аккаунты также делились дезинформацией в сети. В основном это делалось путем повторного распространения старых клипов протестов и собраний в Иране, ложно утверждая, что они показывают растущее несогласие с правительством и поддержку иранцами военной кампании Израиля.
Некоторые аккаунты стали "суперраспространителями" дезинформации, получив значительный рост числа подписчиков. Так у проиранского аккаунта Daily Iran Military число подписчиков на X выросло с чуть более 700 тысяч 13 июня до 1,4 млн к 19 июня, что на 100% больше, чем за неделю.
Это один из многих малоизвестных аккаунтов, которые появились в лентах недавно. Все они отмечены синими галочками, активно обмениваются сообщениями и неоднократно публиковали дезинформацию. Поскольку некоторые используют, казалось бы, официальные имена, отдельные пользователи считают, что это подлинные аккаунты, но неясно, кто на самом деле управляет профилями.
"Это первый случай, когда мы увидели, как генеративный ИИ так масштабно использовался во время конфликта", - рассказала утверждает главный расследователь аналитической группы Get Real Эммануэль Салиба.
Большая часть ИИ- подделок стремились преувеличить успех ответа Ирана на действия Израиля. Многие из них были посвящены уничтожению израильских истребителей F-35.
В одном широко распространенном посте утверждалось, что показан поврежденный самолет после того, как его сбили в иранской пустыне. Однако люди вокруг самолета были того же размера, что и близлежащие транспортные средства, а на песке не было никаких следов удара, что сразу выдало манипуляции ИИ. Другое видео с 21,1 млн просмотров на TikTok, как утверждалось, показывает израильский F-35, сбитый ПВО, но на самом деле кадры были из видеоигры-симулятора полета.
Характерно, что некоторые фейковые клипы появлялись не только в обычных аккаунтах, но и в официальных источниках. В частности, поддельными кадрами ударов и созданным с помощью искусственного интеллекта изображением сбитого самолета F-35 поделились иранские государственные СМИ. А Армию обороны Израиля поймали на использовании старых, не относящихся к делу кадров ракетных обстрелов.
Информационные войны тоже вышли на новый уровень. Никуда без вездесущего ИИ