Правовые проблемы использования технологии «DeepFake».

Covid-19 дал толчок цифровизации всех сфер жизни общества. Одной из последних инноваций стало создание программы «DeepFake» («глубинное обучение» и «подделка»), использующей глубокое обучение и искусственный интеллект для создания фальшивых видео или аудио файлов. Продвинутые гаджеты, основанные на VR-технологии, улучшенная цветопередача экранов в сочетании с быстрым интернет-соединением и графическими редакторами при помощи искусственного интеллекта позволили создавать визуальные образы, почти неотличимые от реальности.  

Этим не преминули воспользоваться злоумышленники. Выступая в роли личных мстителей или участников информационных войн, они активно эксплуатировали программу. Вначале она использовалась ради развлечения, но вскоре появились ролики с лицами политиков в интернете и мессенджерах в целях распространения ложной информации, что вкоре изменило взгляды общества на Deepfake. Появилась серьезная правовая проблема, требующая законодательного решения.

 Судебные разбирательства в отношении технологии Deepfake отграничивают сейчас сложные вопросы в сфере юриспруденции, авторского права, неприкосновенности личности и этики. Deepfake имеет широкий потенциал для злоупотреблений и нанесения морального вреда личности, деловой репутации, а также для распространения дезинформации. Тем самым грубо нарушаются личные неимущественные права человека.

    Данный факт усугубляется тем, что в законодательстве ряда стран и России в том числе подобное явление никак не регулируется. Легального понятия Deepfake в российском праве нет, и юридическая ответственность за нарушение чужих прав в рамках данной области не урегулирована. Поэтому законодатель должен начать писать данный вопрос почти с чистого листа.

При этом он должен учитывать вопросы, которые уже сейчас обозначились в правовой практике. К ним прежде всего относится правовая регламентация возможности использования чужого изображения в Deepfake и ответственность за самовольное использование этого изображения.

Необходимо отметить, что правовая «зацепка» в РФ уже существует. В частности, в соответствии со ст 152.1 ГК РФ не допускается использование изображения гражданина допускается только с его согласия, а после смерти с согласия родственников. Следует развить это направление.

Сложнее дело обстоит с проблемой имитации голоса человека, который закон прямо не охраняет. Но, так как голос — это вид биометрических персональных данных, то он попадает под защиту закона «О персональных данных».

 В использовании программы дипфейка отчетливо прослеживается нарушения исключительного права на неприкосновенность произведения, поскольку без ведения и согласия на то автора в произведение вносятся изменения. А за это уже предусмотрена юридическая ответственность.

Само же использование чужого изображения или голоса в мошеннических целях, часто с целью вымогания денег, является уголовным преступлением (УК РФ ст. 159 - мошенничество). Следует отметить, что депутаты Государственной Думы уже сейчас предлагают внести законопроект, предусматривающий наказание за дипфейки при финансовом мошенничестве с целью изменения нескольких статей УК РФ. Технология дипфейков при этом будет рассматриваться как отягчающее обстоятельство при совершении мошенничества, кражи или вымогательства

Поэтому современные судебные дела о Deepfake включают в себя множество правовых аспектов из разных отраслей права. Сложность судебных процессов заключается не только в отсутствии правовой базы, о чем говорилось выше, но и необходимости привлечения к рассмотрению таких дел экспертов по технологиям искусственного интеллекта для доказательства подлинности или фальсификации видео и аудиоматериалов.

Примеров использования этой технологии можно встретить немало. Известный фильм «Елки 9», вышедший в 2022 году на российские экраны, затрагивает лишь одну из проблем, возникающих с использованием лиц известных людей. Мошенник, использовав лицо Джеки Чана, обманул деревенских жителей и пообещал, что приедет к ним в далекую деревню для развития местного туризма и привлечения инвестиций, где до сих пор смотрят видеомагнитофон, живут в срубах и ездят на лошадях. Интернет для них был в новинку, поэтому так называемая «наивность» так же сыграла свою роль.

Хоть все и разрешилось в итоге благополучно, в жизни все не так красочно. Бывает, что люди сами не понимают, что оказались в чьей-то мошеннической схеме с использованием DeepFake. Например, девушка перешла по ссылке, чтобы проголосовать в опросе, и ее взломали. Для того, чтобы она не смогла помешать мошенникам, они использовали так называемый «СМС-бомбер» - постоянные звонки на телефон с различных номеров и смс. От лица девушки мошенники просили скинуть деньги на карту, сгенерировав голосовые сообщения с просьбами для убедительности. При помощи нейросети, использовав образцы аудиосообщений девушки, им удалось скопировать ее голос.

Иногда возникают споры, связанные с правообладанием контента, созданным при помощи технологии DeepFake и взысканием убытков в связи с неправомерным использованием. Показательно дело ООО «Бизнес-аналитика» (юрлицо Roistat) и ООО «Рефейс Технолоджис» по поводу ролика-рекламы с использованием лица Киану Ривза. Истец, ООО «Рефейс Технолоджис», обратилось в арбитражный суд с исковым заявлением к ООО «Бизнес-аналитика» о взыскании компенсации за нарушение исключительного права на видеоролик в размере 500 000 руб. «Бизнес-аналитика» использовала для своих целей дипфейк-видео, которое «Рефейс технолоджис» заказала у «Адженда медиа групп» (AMG). Видео длится полчаса. На нем актер Киану Ривз несколько раз проверяет, выключил ли он утюг перед выходом из дома. Он фотографирует утюг, но в конце ролика уходит из квартиры с утюгом в руке. У «Бизнес-аналитики», скачавшей этот ролик из интернета, не было на него прав.

Суд согласился с доводами истца, поскольку «наличие исключительного права на спорный видеоролик подтверждается Договором No16/05/2023 об отчуждении исключительного права на видеоролики от 16 мая 2023 г. между ООО «Рефейс технолоджис» (приобретатель) и ООО «Адженда медиа групп» (правообладатель)», а также между этими лицами были заключены договоры возмездного оказания услуг.

Доводы ответчика о том, что «созданный видеоролик не является объектом авторского права по причине использования технологии Deepfake отклоняются судом, поскольку технология Deepfake - это дополнительный инструмент обработки (технического монтажа) видеоматериалов, а не способ их создания.». А также тот факт, что исходные материалы видео были смонтированы этой технологией не свидетельствуют, что этот видеоролик доступен для свободного использования или то, что лица, обеспечившие написание сценария, съемку, аудиосопровождение, «не внесли личный творческий вклад в создание видеоролика и не признаются его авторами.». Поэтому перед использованием в своей рекламе Roistat должен был сначала получить согласие правообладателя, то есть ООО «Рефейс Технолоджис».

Суд подчеркнул, что эта технология – лишь дополнительный инструмент обработки (технического монтажа) видеоматериалов, используемый моушн-дизайнером. То есть нейросети – инструмент, и созданные с их помощью произведения – это такой е объект авторского права, как и обычный видеоролик.

Помимо вопроса об охраноспособности произведения, созданного при помощи нейросетей и технологии DeepFake, возникает вопрос о необходимости получения согласия от человека, чье изображение или внешность была использована.

В деле о видеоролике Киану Ривза этот вопрос затронут не был, однако стоит отметить, что отсутствие этого согласия не умаляет исключительного права на этот видеоролик со стороны компании-правообладателя. Но есть и иные примеры.

«Мегафон» в августе 2021 года представил многосерийный рекламный сериал о Брюсе Уиллисе. Американскому актёру даже не нужно было прилетать на съемочную площадку. Все выполняли актеры, а на стадии монтажа при помощи технологии DeepFake лица были изменены. Сам «Мегафон» сообщил, что они активно отрудничали с Брюсом Уиллисом по прямому контракту, без посредников. Актер участвовал в проекте, согласовывал все сценарии роликов и финальные материалы.» Это яркий пример правильного использования технологий нейросети.

В заключение хочется отметить, что технология Deepfake – программа, использующая синтез человеческого изображения – искусственный интеллект объединяет несколько картинок, на которых человек запечатлен с разных ракурсов и с разным выражением лица, и делает из них видео или другой способ выражения результата. В современном российском праве нет прямого запрета на создание дипфейков и не установлены правовые формы защиты. Но случай из жизни и судебная практика уже сейчас демонстрирует нам, что необходимо дополнить ГК РФ статьями связанными с применяем технологии DeepFake, устанавливающими нормы ее использования. Очень важно разработать нормативно-правовую базу с изучением и разбором всех возможных аспектов, связанных с использованием технологии Deepfake с целью защиты авторских прав, неприкосновенности личности и обеспечения цифровой безопасности.

В связи с этим следует отдельно обозначить проблему использования в дипфейках биометрических данных человека, например голоса. Определить юридическую ответственность, связанную с нарушением личных неимущественные права гражданина, таких как право на охрану изображения, чести, достоинства, деловой репутации. Рассмотреть использование программы дипфейка в контексте нарушения прав неприкосновенности произведения.

И в заключение хотелось бы отметить, что в связи со сложностью данного вопроса необходимо установить различные виды юридической ответственности распространителям дипфейков в зависимости от состава правонарушения: гражданскую, административную или уголовную. Причиной подобных изменений и дополнений является технологический прогресс современности, который ворвался в нашу жизнь.