Использование ИИ в медиа требует не запретов, а умных правил. Что предложили в Совфеде для борьбы с «дезой» и дипфейками
Ключевые риски для медиа в использовании искусственного интеллекта (ИИ) состоят в возникновении дезинформации и применении «дипфейков», считает первый заместитель председателя комитета Совета Федерации по конституционному законодательству и госстроительству Артем Шейкин. Он предложил правила «трех П» для регулирования этой сферы: прозрачность, подотчетность и превентивные стандарты и сообщил о разработке закона о «голосовой неприкосновенности».

Сенатор на Петербургском международном экономическом форуме (ПМЭФ) напомнил о периодическом использовании технологии deepfake — синтеза правдоподобных поддельных изображений или видео и звука с помощью ИИ для передачи «заявлений» политически важных фигур. Для предотвращения этого он предлагает вводить обязательную маркировку контента, созданного с помощью ИИ, и возможность верификации информации в реальном времени, например с помощью технического стандарта C2PA, содержащего информацию о происхождении изображений.
«Банально — новости, сводка новостей. Если мы не будем указывать, что это сделано с помощью ИИ, мы в скором времени просто потеряем доверие своих зрителей. Здесь решением могли бы быть жесткие правила прозрачности, четкая идентификация контента, <…> ранжирование материала, публикация моделей источника исходных данных», — сказал Шейкин на сессии «ИИ в современной медиасфере».
Он обратил внимание на «предвзятость искусственного интеллекта», который выдает ответ в зависимости от языка и формулировки запроса. «И наша с вами задача сделать так, чтобы эта предвзятость была измеримой», — добавил замглавы комитета.
Шейкин напомнил, что в Китае в 2024 году был представлен законопроект об ИИ, где рассматриваются специальные сценарии его использования, в том числе и в новостях, которые создают с помощью нейросетей. Документ обязывает СМИ гарантировать достоверность ИИ-новостей и требует идентификацию контента.
По аналогии с Китаем сенатор считает необходимым и в России внедрять технические стандарты, центры мониторинга дипфейков при регуляторах, установить правовую ответственность, опции блокировки демаркированного контента, определить размеры штрафов за нарушения, расширить понятие «редакционная ответственность» и выстроить этический каркас — «решения все равно должен принимать человек».
«Я для себя сделал вывод, что регулирование ИИ в медиа не требует запретов, а требует умных правил. Их можно определить как правила „трех П“:
— прозрачность — открытость алгоритмов;
— подотчетность — ясная ответственность платформ и СМИ за контент;
— превентивность стандартов — базовые стандарты безопасности».
Шейкин обратил внимание, что китайский законопроект не учитывает взрывной характер генеративного ИИ, в Европе такие нейросети относят к особой категории рисков, а в США разрабатывается целый спектр законов, но пока их нет. В России сенаторы разработали законопроект о голосовой неприкосновенности, запрещающий использование синтеза голоса без разрешения человека по аналогии с охраной изображения, нарушение которого бы приравнивалось к нарушению личных неимущественных прав.
«Считаю, что этот законопроект — это первый шаг к попытке регулирования технологии ИИ, но важно, чтобы этот шаг не был последним», — заключил он.
В свою очередь глава Института искусственного интеллекта AIRI Иван Оселедец рассказал, что его сотрудники провели исследование о политической предвзятости LLM (Large Language Model), собрав 109 исторических кейсов и попросив три ведущие модели проанализировать позиции СССР, США и Китая. «В 70% модель выбирает точку зрения США. Если ее попросить быть беспристрастной, она все равно выбирает точку зрения США. Но если ее попросить быть китайским патриотом, в 99% она выберет точку зрения Китая. Это означает, что [ИИ] знают всё, просто прикидываются», — сказал Оселедец.
Он считает, что в России для верификации источников новостей для управления использованием ИИ необходим заказ на такое исследование от государства, поскольку потребуются колоссальные затраты, и над этим должна быть совместная работа всех СМИ, а также представление набора открытых бенчмарков, по которым оценивается информация. «Технологически всё к этому готово, нужен только заказчик», — добавил Оселедец.