В ЕС начали действовать требования к прозрачности ИИ: разработчики обязаны раскрывать, на чем обучены их модели.
С 2 августа в Европейском союзе начали действовать обязательства по раскрытию информации для разработчиков искусственного интеллекта общего назначения — таких, как ChatGPT или Gemini. Новые правила введены в рамках регламента об ИИ (AI Act), который стал первым международным законом, регулирующим эту сферу.
Компании, выпускающие подобные модели, теперь обязаны публиковать сводку данных, использованных для обучения, раскрывать архитектуру и принципы работы своих систем, а также документировать принятые меры по обеспечению безопасности. Для наиболее продвинутых моделей, обладающих «системным риском», предусмотрены дополнительные требования: они должны уведомлять Еврокомиссию, проводить внутреннюю оценку рисков и внедрять механизмы мониторинга.
Требования распространяются на модели, выпущенные после 2 августа 2025 года. Разработчикам систем, размещенных до этой даты, дано два года на приведение моделей в соответствие — до августа 2027 года. В случае нарушений компаниям грозят штрафы в размере до €35 млн евро или 7% от глобального оборота за предыдущий год — в зависимости от того, какая сумма больше.
Платформа X (ru)|Платформa Х (eng)|BlueSky|WhatsApp