Компания-разработчик ChatGPT предупредила о повышенном риске применения ИИ в создании биологического оружия

OpenAI заявила о повышенных рисках будущих ИИ-моделей в создании биологического оружия. Компания предупредила, что они достигнут высокого уровня риска в области биологии по внутренней системе оценки компании. В связи с этим разработчик ChatGPT ужесточает тестирование таких моделей.

Фото: Freepik

OpenAI уточняет, что модели пока не способны создавать новые биологические угрозы, но могут упростить доступ к опасным технологиям для людей без специальных знаний. Глава отдела систем безопасности компании Йоханнес Хайдечке отметил, что речь идет не о создании новых угроз, а о воспроизведении известных.

Он подчеркнул, что системы обнаружения вредоносного использования должны быть практически безупречными, так как даже 99% точности недостаточно. Компания полагается на автоматизированные фильтры и человеческое наблюдение для предотвращения угроз.

Проблема заключается в двойной природе ИИ: технологии, способные ускорить медицинские открытия, могут быть использованы во вред. OpenAI не одинока в своих опасениях: в мае 2025 года Anthropic при выпуске Claude 4 также активировала меры предосторожности из-за рисков распространения биологических и ядерных угроз.

Глава по политике OpenAI Крис Лихейн сообщил Axios, что компания планирует расширить сотрудничество с национальными лабораториями США и правительством для борьбы со злоупотреблениями ИИ.