ИИ назван главным источником дезинформации в интернете
Группа специалистов из Google выявила, что ИИ в текущий момент является ключевым источником сетевой дезинформации, позволяющейся на изображениях.
По их данным, 80% визуальной дезинформации в Сети порождается нарушителями, использующими искусственный разум. Такое тревожное распространение дезинформации связано с распространением и популярностью инструментов на основе искусственного разума и может серьезно нарушить социальное равновесие. В настоящую эру социальных сетей распространение дезинформации становится все более острой проблемой.
За последние годы стремительный рост применения инструментов на основе искусственного разума еще больше подогрел эти опасения. Несмотря на то, что инструменты редактирования и творчества, такие как Photoshop, могут быть также использованы не по первоначальному назначению, контент, сгенерированный искусственным разумом, часто оказывается более реалистичным и, что еще важнее, гораздо проще в создании и распространении.
Тем не менее до настоящего времени исследования дезинформации в Сети были преимущественно сосредоточены на текстовом контенте. Визуальному контенту уделялось недостаточно внимания, что удивительно, учитывая широкое применение таких онлайн-платформ, как YouTube и Tik Tok. Каждая из этих платформ имеет более миллиарда пользователей, и ежедневно на них появляется в общей сложности более 3,5 миллиарда изображений.
В то же время изображения обычно воспринимаются как убедительное и эффективное средство коммуникации. Исследования свидетельствуют о том, что изображения, несущие утверждения, часто рассматриваются как важные и могут изменить мнение о достоверности этих утверждений. Поэтому неудивительно, что параллельно с распространением изображений, созданных искусственным разумом, резко возросло количество визуальной дезинформации. Новое исследование, проведенное под руководством ученых из Google, является одним из немногих, оценивающих масштабы распространения визуальной дезинформации, создаваемой искусственным разумом.
"Распространение и вред дезинформации в сети представляют собой постоянную проблему для интернета, учреждений и общества в целом", — объясняют они в своем отчете, опубликованном на платформе arXiv. "Распространение инструментов на основе искусственного разума, обеспечивающих широкодоступные способы синтеза реалистичного аудио, изображений, видео и текста, еще более усилило эти опасения", — пишут они. 80 % дезинформации, основанной на изображениях, в настоящее время генерируется искусственным разумом. В ходе исследования группа ученых проанализировала 135 838 материалов, в основном опирающихся на изображения.
Для проверки их достоверности 83 эксперта использовали систему тегов ClaimReview, которую издатели используют для проверки информации в поисковых системах, приложениях и социальных сетях, таких как Google и Bing. Ученые установили, что на момент исследования 80% визуальной дезинформации было связано с контентом, созданным искусственным разумом. "Рост числа дезинформационных заявлений с использованием генерируемого контента искусственным разумом и его распространение — относительно недавнее явление, возникшее главным образом после широкого освещения в СМИ", — пишут они.
Кроме того, методы, применяемые для распространения ложной информации, в основном основаны на изменении контекста. Эта тенденция вызывает беспокойство, особенно в отношении политически значимого контента, такого как информация о выборах или конфликтах.
Глубокие фейки с участием известных личностей, например, могут исказить мнение о конкретных политических кандидатах у населения и повлиять на их голосование, что может оказать серьезное воздействие на страну в целом. Тем временем качество результатов поисковых систем, таких как Google Search, значительно снижается из-за распространения контента, созданного искусственным разумом. Несмотря на то, что технологический гигант позиционирует себя как одного из основных участников гонки за разработкой искусственного разума, его поисковая система страдает от увеличения объема некачественного контента, созданного искусственным разумом.
Однако стоит отметить, что возможности проверки фактов не являются исключительно точными, отмечают исследователи. "Возможности проверки фактов не безупречны, и нельзя предполагать, что они будут автоматически развиваться наравне с общим объемом дезинформации", — говорит Николас Дюфур из отдела 404 Media в Google, главный автор исследования. Кроме того, в рамках исследования не учитывалось частичное использование искусственного разума для создания контента. Тем не менее эти результаты уже свидетельствуют о масштабах распространения дезинформации и должны служить серьезным сигналом для общественности и политиков.