«Лаборатория Касперского» создала руководство по безопасной разработке ИИ
Информирование о киберугрозах и обучение. Руководство организаций должно быть осведомлено об угрозах безопасности, связанных с использованием ИИ, и регулярно проводить обучение для сотрудников. Обучающие программы необходимо постоянно обновлять, чтобы информация об угрозах была актуальной. Люди, работающие в компании, должны знать, какие методы используют злоумышленники для атак на системы ИИ;
Моделирование угроз и оценка рисков. Моделирование угроз позволит заранее найти и снизить риски атак и взломов. Создатели документа предлагают использовать принятые методологии оценки рисков (например, STRIDE, OWASP), чтобы обнаруживать угрозы в сфере ИИ, например нецелевое использование моделей, применение нерелевантных данных для обучения модели, системные недостатки;
Безопасность облачной инфраструктуры. Системы ИИ могут развёртывать в облачных средах, что требует строгих защитных мер (шифрование, сегментация сети и двухфакторная аутентификация). «Лаборатория Касперского» предлагает следовать принципу нулевого доверия (то есть по умолчанию не доверять никаким пользователям или устройствам), применять защищённые каналы связи и регулярно обновлять инфраструктуру, чтобы снижать риски взломов;
Защита цепочки поставок и данных. Существуют риски, связанные с внешними ИИ‑компонентами и моделями, включая утечки данных и их продажу злоумышленниками. Чтобы этого избежать, необходимо строго соблюдать политику конфиденциальности и правила безопасности для всех участников цепочки поставок.
Тестирования и проверки. Регулярные проверки моделей ИИ помогут убедиться в надёжности их работы. Также рекомендовано проводить мониторинг их производительности и собирать отчёты об уязвимостях. Чтобы снизить риски, важно следить за актуальностью наборов данных и проверять логику принятия решений;
Защита от угроз, специфичных для ИИ‑моделей. ИИ‑компоненты необходимо защищать от угроз, характерных для ИИ‑систем (промпт‑инъекций и других вредоносных запросов, отравления учебных данных и так далее). Рекомендуется использовать системы обнаружения аномалий и методы дистилляции знаний, которые помогают обрабатывать информацию и придают ей большую устойчивость к манипуляциям.
Регулярное обновление. Надо проводить постоянное обновление ИИ‑библиотек и фреймворков, чтобы устранять появляющиеся уязвимости. Чтобы повысить устойчивость таких систем, рекомендуется участвовать в программах Bug Bounty;
Соответствие международным стандартам. Следование международным нормам, использование передовых практик и проверка ИИ‑систем на соответствие законодательству помогут компаниям соблюдать требования в сфере этики и конфиденциальности данных.