Технологии искусственного интеллекта могут стать инструментом для создания смертельно опасных вирусов, а развитие нейросетей идет быстрее, чем возможности по противодействию новым угрозам, предупреждает The New York Times. Издание ссылается на мнение экспертов в области биобезопасности и искусственного интеллекта.
В сентябре 2025 года ученые из Стэнфордского университета впервые использовали ИИ для разработки искусственного вируса, который предназначался для борьбы с кишечной палочкой. Эксперты отмечают, что те же технологии способны с такой же легкостью применяться для создания патогенов, потенциально опасных для всего человечества.
Специалисты предлагают создать международный регулирующий орган по аналогии с МАГАТЭ или внедрять специализированные системы безопасности, чтобы минимизировать возможный вред. Однако, подчеркивает издание, современные системы ИИ уже представляют угрозу, сравнимую с распространением ядерного оружия, отмечает ТАСС.
Аналитики считают, что теперь главный вопрос в другом: найдется ли человек, который рискнет создать настолько опасную систему с использованием ИИ, способную уничтожить человечество.
Напомним, накануне Банк Англии предупредил об угрозе резкой коррекции мирового рынка из-за искусственного интеллекта.
Хакеры начали использовать искусственный интеллект для проведения кибератак.
Официальный представитель МИД Мария Захарова заявила, что искусственный интеллект способен лишить людей самостоятельного мышления и повлиять на здоровье.