Регулирование генеративного искусственного интеллекта и риски его развития
Маркировка контента, созданного генеративным искусственным интеллектом, на мой взгляд, вызывает определенные сомнения. Данная мера предлагается, чтобы замедлить неконтролируемое распространение сгенерированного контента, а также снизить вероятность дезинформации. Однако интернет полон недостоверной, откровенно ложной информации, и на плечи пользователей уже сейчас ложится задача по фактчекингу и критической оценке в целом. Сильно ли изменили ситуацию нейросети? Будет ли созданный ИИ контент с «галлюцинациями» хуже или лучше созданного человеком умышленно или по незнанию ложного контента?
С бумом нейросетей существенная часть контента генерируется частично или полностью с помощью ИИ, и это количество будет только увеличиваться. Например, даже для этого комментария я могла воспользоваться ИИ. Однако важно понимать, что сгенерированный контент не равно сфальсифицированный контент. Его демонизация не даст того эффекта, который видится желаемым.
Если данная мера все-таки будет вводиться, необходимо четко определить критерии маркировки, ведь она должна что-то от чего-то отличать. Важно избежать «эффекта сигаретных пачек» — на них есть предупреждения и даже ужасные картинки, но уже никто на них не обращает внимание. Маркировка всего созданного ИИ контента может привести к тому, что она просто не будет работать. Ведь почти все и так используют нейросети в той или иной степени. Здесь важны либо критерии глубины взаимодействия с ИИ, либо разделение по субъектам, например, можно обязать СМИ маркировать контент, созданный ИИ. Также успешным может быть подход по частичной маркировке, когда затрагиваются чувствительные темы, например, рекомендации по здоровью и лечению, инвестиционные рекомендации и так далее.
С другой стороны, маркировка могла бы выполнять превентивную функцию в отношении голосового и видео контента, то есть решать проблему «дипфейков». Видится, что их использование может нанести существенно больше вреда как деловой репутации, так и кошельку, например, в случае мошенничества путем имитации голоса при получении кредита. Кроме того, редки случаи, когда дипфейки используются неумышленно, а значит, сам факт их создания и публикации в неправовых целях может уже рассматриваться как правонарушение.
Одним из ключевых аспектов, на которые я бы обратила внимание, является повышение цифровой и правовой грамотности населения. Использование нейросетей на ежедневной основе — это наша новая реальность, и важно способствовать комфортному и безопасному встраиванию новых инструментов в жизнь людей. Для этого нужны не только правила и запреты, но и доступность информации о рисках, способах взаимодействия с нейросетями и работа с потенциально уязвимыми группами лиц.