Искусственный интеллект на поле боя: можно ли доверить ИИ решения о жизни и смерти
Можно ли научить искусственный интеллект следовать человеческим моральным нормам? Агентство перспективных оборонных исследовательских проектов США (DARPA) запускает амбициозную программу ASIMOV, цель которой — установить чёткие этические стандарты для автономного оружия.

DARPA и её влияние на технологии
DARPA — научно-исследовательское агентство Министерства обороны США, отвечающее за разработку передовых военных технологий. Многие из его проектов стали основой современных технологий, включая GPS, компьютерные сети и графические интерфейсы.
Помимо этого, агентство активно участвует в создании систем наблюдения и шпионажа, а также регулярно проводит конкурсы среди частных компаний на разработку новых военных технологий.
Сегодня DARPA работает преимущественно как организация, предоставляющая гранты, и в её штате около 100 менеджеров программ. С развитием автономных систем встал вопрос об их соответствии человеческим моральным нормам. В ответ на эти опасения агентство запустило программу ASIMOV ("Стандарты и идеалы автономии с военно-оперативными ценностями").
Программа ASIMOV: вдохновение законами Азимова
Идеи программы ASIMOV во многом перекликаются с концепцией "Трёх законов робототехники", предложенной писателем Айзеком Азимовым:
- Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
- Робот должен подчиняться приказам человека, если они не противоречат первому закону.
- Робот должен защищать себя, если это не противоречит первым двум законам.
Азимов в своих произведениях поднимал вопросы о последствиях нарушения этих принципов. DARPA, вдохновившись его идеями, стремится создать систему контроля для военных технологий, адаптированную к реальным условиям.
Как будет работать ASIMOV
Семь исследовательских групп, специализирующихся на этике и оружейных технологиях, займутся разработкой теоретических основ и сред моделирования. Их задача — проанализировать сложные сценарии, оценить потенциальные риски и создать инструменты для объективной оценки автономных систем.
В рамках программы будет разработана эталонная система, основанная на принципах этики ИИ Министерства обороны США. Основные критерии оценки технологий: соответствие стандартам, справедливость, отслеживаемость, надёжность и возможность контроля. На реализацию проекта DARPA уже выделило 5 миллионов долларов, а в течение года сумма увеличится до 22 миллионов.
В список участников программы вошли такие гиганты, как Raytheon и Lockheed Martin — ведущие компании в области военных технологий. Однако DARPA подчёркивает, что ASIMOV не направлен на создание новых видов автономного оружия. Основная цель — разработка этических стандартов исключительно для военных систем.
Проблема человеческой этики: главный вызов программы
Несмотря на научный подход, проект ASIMOV сталкивается с серьёзными трудностями. Одной из главных проблем остаётся изменчивость моральных стандартов. Этические нормы могут значительно различаться в зависимости от культурных, социальных и личных факторов.
"ИИ может выполнять одну и ту же задачу миллиарды раз, — поясняет профессор Новой школы и вице-президент Международного комитета по контролю над вооружениями роботов Питер Асаро.
Остаётся открытым вопрос: какие именно моральные принципы будут заложены в систему, кто их определит и сможет ли автономный ИИ корректно применять их в боевых условиях?
Кроме того, если в будущем автономные системы разовьют собственное осознание, не приведёт ли это к тому, что они начнут принимать решения, противоречащие приказам?
Уточнения
Иску́сственный интелле́кт (англ. artificial intelligence; AI) в самом широком смысле — это интеллект, демонстрируемый машинами, в частности компьютерными системами.