OpenAI усиливает системы безопасности, чтобы предотвратить кражу ИИ-моделей

Компания OpenAI усиливает меры безопасности, чтобы предотвратить копирование своих ИИ-моделей конкурентами. Эта проблема обострилась на фоне обвинений в адрес китайского стартапа Deepseek. Предполагается, что он использовал модели OpenAI для разработки собственных систем в процессе, известном как «дистилляция». Кража технологий в глобальной гонке ИИ становится серьезной угрозой для национальной и экономической безопасности.

Rawpixel.com/Freepik

В ответ OpenAI внедряет комплексные меры защиты. Компания ограничивает доступ к конфиденциальной информации, вводит биометрический контроль и новые политики разделения данных. Один из ключевых шагов — внутренние системы теперь по умолчанию отключены от интернета, чтобы защитить «веса» моделей от несанкционированных утечек. Доступ в сеть предоставляется только после специального разрешения.

Для сотрудников введена практика «информационных шатров». Это означает, что работники получают доступ только к тем проектам, на которые у них есть специальное разрешение. Например, обсуждать детали новой модели o1 (кодовое название Strawberry) могли только те, кто был непосредственно допущен к этому проекту. Также усилена физическая безопасность: ужесточены правила входа в центры обработки данных и наняты эксперты по безопасности с военным прошлым.

Эти шаги являются не только реакцией на конкретные инциденты, но и частью более широкой стратегии инвестиций в безопасность. OpenAI также прислушивается к предупреждениям официальных лиц США о растущем промышленном шпионаже, особенно со стороны Китая. Компания обновила свою «Систему готовности» для систематического отслеживания высокорисковых возможностей ИИ, таких как автономное копирование и кибератаки.

Ранее стало известно, что Microsoft — ключевой инвестор и партнер OpenAI — пытается пересмотреть условия сделки, согласно которой техногиганту запрещено создавать собственный сверхинтеллект до 2030 года.