Искусственный интеллект на поле боя: можно ли доверить ИИ решения о жизни и смерти

4:08

Можно ли научить искусственный интеллект следовать человеческим моральным нормам? Агентство перспективных оборонных исследовательских проектов США (DARPA) запускает амбициозную программу ASIMOV, цель которой — установить чёткие этические стандарты для автономного оружия.

DARPA и её влияние на технологии

DARPA — научно-исследовательское агентство Министерства обороны США, отвечающее за разработку передовых военных технологий. Многие из его проектов стали основой современных технологий, включая GPS, компьютерные сети и графические интерфейсы.

Помимо этого, агентство активно участвует в создании систем наблюдения и шпионажа, а также регулярно проводит конкурсы среди частных компаний на разработку новых военных технологий.

Сегодня DARPA работает преимущественно как организация, предоставляющая гранты, и в её штате около 100 менеджеров программ. С развитием автономных систем встал вопрос об их соответствии человеческим моральным нормам. В ответ на эти опасения агентство запустило программу ASIMOV ("Стандарты и идеалы автономии с военно-оперативными ценностями").

Программа ASIMOV: вдохновение законами Азимова

Идеи программы ASIMOV во многом перекликаются с концепцией "Трёх законов робототехники", предложенной писателем Айзеком Азимовым:

  • Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  • Робот должен подчиняться приказам человека, если они не противоречат первому закону.
  • Робот должен защищать себя, если это не противоречит первым двум законам.

Азимов в своих произведениях поднимал вопросы о последствиях нарушения этих принципов. DARPA, вдохновившись его идеями, стремится создать систему контроля для военных технологий, адаптированную к реальным условиям.

Как будет работать ASIMOV

Семь исследовательских групп, специализирующихся на этике и оружейных технологиях, займутся разработкой теоретических основ и сред моделирования. Их задача — проанализировать сложные сценарии, оценить потенциальные риски и создать инструменты для объективной оценки автономных систем.

В рамках программы будет разработана эталонная система, основанная на принципах этики ИИ Министерства обороны США. Основные критерии оценки технологий: соответствие стандартам, справедливость, отслеживаемость, надёжность и возможность контроля. На реализацию проекта DARPA уже выделило 5 миллионов долларов, а в течение года сумма увеличится до 22 миллионов.

В список участников программы вошли такие гиганты, как Raytheon и Lockheed Martin — ведущие компании в области военных технологий. Однако DARPA подчёркивает, что ASIMOV не направлен на создание новых видов автономного оружия. Основная цель — разработка этических стандартов исключительно для военных систем.

Проблема человеческой этики: главный вызов программы

Несмотря на научный подход, проект ASIMOV сталкивается с серьёзными трудностями. Одной из главных проблем остаётся изменчивость моральных стандартов. Этические нормы могут значительно различаться в зависимости от культурных, социальных и личных факторов.

"ИИ может выполнять одну и ту же задачу миллиарды раз, — поясняет профессор Новой школы и вице-президент Международного комитета по контролю над вооружениями роботов Питер Асаро.

Остаётся открытым вопрос: какие именно моральные принципы будут заложены в систему, кто их определит и сможет ли автономный ИИ корректно применять их в боевых условиях?

Кроме того, если в будущем автономные системы разовьют собственное осознание, не приведёт ли это к тому, что они начнут принимать решения, противоречащие приказам?

Уточнения

Иску́сственный интелле́кт (англ. artificial intelligence; AI) в самом широком смысле — это интеллект, демонстрируемый машинами, в частности компьютерными системами.