Комментарии 0
...комментариев пока нет
О законе о маркировке контента,
О законе о маркировке контента, созданного с использованием искусственного интеллекта (далее – ИИ), в правовом сообществе говорили давно. Недавно в Государственной думе наконец начали разработку такой законодательной инициативе.
Бесконтрольное распространение ИИ-сгенерированной информации несет серьезную опасность не только с точки зрения нарушения чужой интеллектуальной собственности, которую вовлекают ИИ-сервисы, но и с точки зрения факт-чекинга – информация, аккумулируемая сервисом, может быть ложной, ведь она не несет ссылок на источники и никем не проверяется. Кроме того, такой контент может привести к кризису и невостребованности авторской, творческой мысли. Как гласит Гражданский кодекс Российской Федерации, автором произведения науки, литературы или искусства признается гражданин, творческим трудом которого оно создано, то есть на данный момент законодательство РФ не признает в качестве автора ИИ-интеллект, и на практике считает его больше сервисным инструментом обработки запроса автора-человека.
Сейчас эра цифровизации, и возможности ИИ растут – например, отличить фальшивые видео-ролики со звездами и заявления, которых эти люди не делали, от реальной позиции очень сложно, что дает недобросовестным СМИ массу возможностей для введения потребителей контента в заблуждение, манипулирования мнением «толпы» и так далее. Мы на своей практике столкнулись с тем, что ИИ-контент бывает ложным и дефектным, и его обязательно необходимо проверять. А представьте, если такой ложный контент с ложной статистикой попадает в рекламу?
Некоторые зарубежные сервисы и социальные сети уже сейчас ввели маркировку ИИ-контента, так как по всей видимости считают, что пользователь должен знать о том, что информация была собрана методом генерации, в будущем законопроект обяжет это делать и российские компании.
Механизм пока не утвержден, но скорее всего, он будет реализован с помощью графических или водяных знаков, либо дисклеймера, который будет заметен читателю невооруженным глазом. Это, конечно, будет в основном касаться массового ИИ-контента, такого как реклама, видео, интернет-релизы, а не справок, ответов из чатов для личного использования конкретным человеком.
Относиться к сгенерированному ИИ-контенту необходимо с осторожностью, учитывая массовые случаи дезинформации и просто мошенничества с дипфейками. Конечно, такая инициатива не должна идти во вред развитию информационных технологий искусственного интеллекта, однако должна охранять от дезинформации незащищенные и не просвещённые слои граждан, которые могут попросту не отличать оригинальный контент от искуственно-сгенерированного, и помочь им избежать бесконтрольного потребления "фейков".
Бесконтрольное распространение ИИ-сгенерированной информации несет серьезную опасность не только с точки зрения нарушения чужой интеллектуальной собственности, которую вовлекают ИИ-сервисы, но и с точки зрения факт-чекинга – информация, аккумулируемая сервисом, может быть ложной, ведь она не несет ссылок на источники и никем не проверяется. Кроме того, такой контент может привести к кризису и невостребованности авторской, творческой мысли. Как гласит Гражданский кодекс Российской Федерации, автором произведения науки, литературы или искусства признается гражданин, творческим трудом которого оно создано, то есть на данный момент законодательство РФ не признает в качестве автора ИИ-интеллект, и на практике считает его больше сервисным инструментом обработки запроса автора-человека.
Сейчас эра цифровизации, и возможности ИИ растут – например, отличить фальшивые видео-ролики со звездами и заявления, которых эти люди не делали, от реальной позиции очень сложно, что дает недобросовестным СМИ массу возможностей для введения потребителей контента в заблуждение, манипулирования мнением «толпы» и так далее. Мы на своей практике столкнулись с тем, что ИИ-контент бывает ложным и дефектным, и его обязательно необходимо проверять. А представьте, если такой ложный контент с ложной статистикой попадает в рекламу?
Некоторые зарубежные сервисы и социальные сети уже сейчас ввели маркировку ИИ-контента, так как по всей видимости считают, что пользователь должен знать о том, что информация была собрана методом генерации, в будущем законопроект обяжет это делать и российские компании.
Механизм пока не утвержден, но скорее всего, он будет реализован с помощью графических или водяных знаков, либо дисклеймера, который будет заметен читателю невооруженным глазом. Это, конечно, будет в основном касаться массового ИИ-контента, такого как реклама, видео, интернет-релизы, а не справок, ответов из чатов для личного использования конкретным человеком.
Относиться к сгенерированному ИИ-контенту необходимо с осторожностью, учитывая массовые случаи дезинформации и просто мошенничества с дипфейками. Конечно, такая инициатива не должна идти во вред развитию информационных технологий искусственного интеллекта, однако должна охранять от дезинформации незащищенные и не просвещённые слои граждан, которые могут попросту не отличать оригинальный контент от искуственно-сгенерированного, и помочь им избежать бесконтрольного потребления "фейков".