- 19:02 29 октября
- Служба новостей
Вдохновляющий путь к новым вершинам
В конце января 2024 года социальные сети Instagram (принадлежит Meta, организация признана экстремистской и запрещена в РФ) и Facebook (принадлежит Meta, организация признана экстремистской и запрещена в РФ) начали блокировать материалы, созданные с использованием технологий искусственного интеллекта. Такое решение было принято из-за опасений, что подобный контент может быть применен для вмешательства в избирательные процессы в странах с высоким уровнем риска.
Новая стратегия, объявленная на фоне предстоящих выборов в Индии, Индонезии и странах Европейского союза, а также президентских выборов в Соединенных Штатах, предусматривает маркировку изображений, аудиозаписей и видеороликов, если они были изменены или созданы цифровыми методами. Таким образом, компания Meta (принадлежит Meta, организация признана экстремистской и запрещена в РФ) стремится уменьшить распространение дезинформации, которая может повлиять на ход выборов.
"Если мы обнаружим, что контент, созданный искусственным интеллектом, представляет высокий риск для безопасности и свободы выборов, то мы будем удалять его. Даже если он был маркирован как таковой", - заявила Моника Бикерт, вице-президент Meta (принадлежит Meta, организация признана экстремистской и запрещена в РФ) по контентной политике.
Эти изменения были введены после того, как в прошлом году возросло число случаев применения искусственного интеллекта для создания реалистичных изображений и видео, способных использоваться для распространения недостоверной информации. В качестве примеров таких инцидентов приводились поддельные снимки задержания Дональда Трампа и видеоматериалы, где Джо Байден произносил несвойственные ему высказывания.
Изначально Meta (принадлежит Meta, организация признана экстремистской и запрещена в РФ) требовала маркировать контент, созданный ИИ, только если он был произведен с помощью ее собственных инструментов. Однако, в связи с растущей обеспокоенностью по поводу дипфейков, компания расширила свои правила. Теперь она будет использовать более широкий набор собственных инструментов и сотрудничать с партнерами для выявления искусственно сгенерированных материалов.
Начиная с 2016 года, компания Meta (принадлежит Meta, организация признана экстремистской и запрещена в РФ) удалила миллионы единиц контента за нарушение ее политик, связанных с вмешательством в выборы. В общей сложности более 200 команд и 40 000 сотрудников в компании занимаются обеспечением безопасности избирательных процессов.