Эксперты по ядерному оружию предупредили об опасности внедрения ИИ в системы запуска

Искусственный интеллект проникает во все сферы жизни, но есть области, где его присутствие вызывает особые опасения. Эксперты по ядерному оружию считают неизбежным появление ИИ в системах управления ядерным арсеналом – и это их серьёзно беспокоит.

Как сообщает Wired, на встрече с нобелевскими лауреатами в Университете Чикаго специалисты обсудили риски, которые может принести автоматизация ядерных систем. Бывший генерал-майор ВВС США и член Совета по науке и безопасности Бюллетеня учёных-атомщиков Боб Латифф сравнил ИИ с электричеством – технология "найдёт свой путь во всё".

В то же время военные, учёные и другие эксперты сошлись во мнении, что интеграция ИИ в ядерные системы практически неизбежна. Военные ведомства активно внедряют искусственный интеллект, и ядерная сфера вряд ли останется исключением. Однако энтузиазма по этому поводу участники встречи не проявляли.

Запуск ядерного оружия представляет собой цепочку из сотни мелких решений, каждое из которых принимают люди. Ключевой вопрос заключается в том, какие из этих решений можно доверить ИИ, а какие должны оставаться исключительно за человеком.

Хотя военное руководство согласно с необходимостью сохранения человеческого контроля над финальными решениями о применении ядерного оружия, проблемы могут возникнуть даже при использовании ИИ в качестве советника. Так, директор программы глобальных рисков Федерации американских учёных Джон Вольфсталь выразил обеспокоенность возможными последствиями:

Меня беспокоит, что кто-то скажет, что нам нужно автоматизировать эту систему и её части, и это создаст уязвимости, которые может использовать противник, или она будет выдавать данные или рекомендации, которые люди не готовы понять, и это приведёт к плохим решениям.

Проблему усугубляет общее непонимание природы ИИ и возможная переоценка его возможностей. Как добавил Вольфсталь, "разговор об ИИ и ядерном оружии затрудняется несколькими серьёзными проблемами. Первая заключается в том, что никто на самом деле не знает, что такое ИИ".

Министр энергетики США уже назвал развитие ИИ "вторым Манхэттенским проектом", что отражает официальную позицию организации. А в условиях гонки ИИ-вооружений между державами риск поспешного внедрения технологий в критически важные системы только возрастает.

Эксперты напоминают, что ИИ не стремится к истине по своей природе – к ней стремятся люди. Искусственный интеллект можно направлять к тому, что мы считаем правдивым, но истина исходит от нас, а не от самой системы. Понимание этого принципиально важно при работе с технологиями, которые могут повлиять на судьбу всего человечества.