Искусственный интеллект и безопасность полетов

На днях в рамках Восточного экономического форума была озвучена информация о том, что Рабочая группа Государственной Думы РФ по разработке законопроекта о регулировании искусственного интеллекта (ИИ) предложила определение ИИ, которое, как ожидается, будет закреплено в будущем соответствующем законе. Данную информацию  сообщила входящая в рабочую группу представитель адвокатского бюро «Дубровская, Кузнецова и партнеры» Марина Дубровская. Вот какое определение ИИ предлагается утвердить в качестве закона:

«Искусственный интеллект — это любая система данных, программное обеспечение или аппаратное средство, обладающее способностью обрабатывать данные и информацию способом, напоминающим разумное поведение, с использованием методов машинного обучения или статистических методов для генерации контента, формирования прогнозов, рекомендаций или решений, способных оказывать влияние на реальную и виртуальную среду».

Пока это определение не стало законом, его, очевидно, можно обсуждать. Генеральный директор МКАА «Безопасность полетов» Сергей Мельниченко обратился за комментариями к ученому-системщику, нашему давнему автору О. Гапотченко.

С. Мельниченко: Олег Олегович, каково Ваше отношение к предлагаемому определению искусственного интеллекта?

Олег Олегович Гапотченко,
эксперт

О. Гапотченко: Термин «искусственный интеллект» в нормативных документах РФ закреплён Указом Президента Российской Федерации от 10.10.2019 N 490 «О развитии искусственного интеллекта в Российской Федерации».

Согласно этому документу, «искусственный интеллект — это комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые как минимум с результатами интеллектуальной деятельности человека.

Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение, процессы и сервисы по обработке данных и поиску решений».

Этот же термин используется в ГОСТ Р 59277-2020 — национальном стандарте Российской Федерации «Системы искусственного интеллекта. Классификация систем искусственного интеллекта», п. 3.18, в следующей редакции: « искусственный интеллект (artificial intelligence): Комплекс технологических решений, позво­ляющий имитировать когнитивные функции человека (включая самообучение, поиск решений без за­ранее заданного алгоритма и достижение инсайта) и получать при выполнении конкретных практически значимых задач обработки данных результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека».

П р и м е ч а н и еКомплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе, в котором используются методы машинного обучения). процессы и сервисы по обработке данных, анализу и синтезу решений.

Термин в  ГОСТ Р 59277-202 отличается от термина Указа от 10.10.2019 N 490 выражением: «достижение инсайта».

Достижение инсайта (озарения) — это внезапное осознанное нахождение решения задачи, которое появляется в сознании, зачастую неожиданно и мгновенно. Термин используется в разных сферах: в психологии, науке и творчестве.

Вопрос: Олег Олегович, в любой профессии, в научной деятельности, даже на бытовом уровне – важно, чтобы люди оперировали понятиями, которые имеют для них одинаковое значение, то есть, чтобы эти понятия были едиными. Готовясь к сегодняшнему интервью, я намеренно обратился к так называемому «искусственному интеллекту», чтобы выяснить, что подразумевается под словом «единый». Сразу скажу, что с великим удивлением узнал, что У ПОНЯТИЯ «ЕДИНОЕ ПОНЯТИЕ» существует, как минимум, ДВА ПОНЯТИЯ (извините, без тавтологии здесь не обойтись), цитирую:

«Единое понятие» может означать два основных понятия: единое как философскую категорию, обозначающую неделимое, целостное начало всего сущего (вещей, сознания, идеального бытия), или единичное понятие в логике, относящееся к одному единственному объекту (например, «русский писатель А.П. Чехов»).

В связи с этим вопрос: К какой трактовке «единого понятия» может (должно?) принадлежать определение искусственного интеллекта – к первой или второй? Или, может, к третьей, которую «нанятый» мной искусственный интеллект не предложил?

Ответ: Понятия, термины и определения в официальных нормативных документах при всей их смысловой схожести, семантически могут различаться, адаптируясь к устоявшейся и принятой терминологии и понятиям того раздела научной деятельности, где они используются.

В каждом ГОСТе и в других нормативных документах существует раздел «Область применения», где эти нюансы строго прописываются.

В нашем случае, что касается авиации, следует использовать термины, определенные Указом Президента Российской Федерации от 10.10.2019 N 490 и ГОСТ Р 59277-2020.

Вопрос: Как Вы считаете, предложенное Рабочей группой Госдумы определение искусственного интеллекта достаточно емкое и всеобъемлющее, чтобы соответствовать требованиям сегодняшнего дня?

Ответ:  «Искусственный интеллект — это любая система данных, программное обеспечение или аппаратное средство, обладающее способностью обрабатывать данные и информацию способом, напоминающим разумное поведение, с использованием методов машинного обучения или статистических методов для генерации контента, формирования прогнозов, рекомендаций или решений, способных оказывать влияние на реальную и виртуальную среду».

Так записано в проекте, который предлагает рабочая группа. Если это так, то рождается ещё одно из многих определений «искусственного интеллекта», где когнитивные функции человека представляются неполно. Здесь имеет место семантическая диффузия понятий и определений, которая требует обоснования и оценки такой целесообразности.

Так, например, в перечень когнитивных функций, кроме речи, интеллекта и других входит праксис — способность формировать и включать в деятельность двигательные навыки, а также строить, заучивать и автоматизировать последовательности движений. Есть и другие терминологические нюансы, требующие определения.

Кроме того, новый термин должен быть согласован с уже имеющимися терминами в Указе Президента РФ № 490 и ГОСТ Р. 59277-2020.

Вопрос: Олег Олегович, мы в Международном консультативно-аналитическом агентстве «Безопасность полетов» неспроста интересуемся данным вопросом, ведь сегодня и в международной авиации, и в российской, — как в пилотируемой, так и беспилотной, — ставятся вопросы о применении, как минимум, некоторых возможностей нейросетей. Идут различные дискуссии: от применения способных принимать «самостоятельные» решения применяемых как в гражданской, так и военной авиации, беспилотников, которые намного ускоряют и упрощают выполнение тех или иных действий, — до полной замены «человеческих» экипажей на «машинные». В некоторых странах уже ездят беспилотные поезда метро и шаттлы между терминалами аэропортов, в Москве на днях запустили первый беспилотный трамвай. Понятно, что воздушное судно движется не по рельсам и в случае непредвиденных обстоятельств не может просто так остановиться, чтобы избежать возможного происшествия. Но возможно ли это в перспективе? Не является ли космос ярким примером того, что беспилотная авиация победит? Хотя, наверное, не стоит заменять то, что ранее воспринималась, как «автоматизация» нынешним «искусственным интеллектом»?

Ответ: Область и границы применения «ИИ» в авиации, безусловно, будут расширяться. Но необходимо иметь в виду, что и сложность самих систем будет все время возрастать, а, следовательно, такое свойство систем, как эмерджентность, всегда будет проявляться. Эмерджентность системы (от англ. emerge — «возникать, появляться») — явление, когда в системе возникают новые свойства или поведение, нехарактерные для отдельных её компонентов.

Другими словами, эмерджентность — это явление, когда в системе возникают новые свойства или поведение, которые невозможно предсказать. Таким образом, количество неопределенностей в работе больших эргатических систем, с увеличением уровня их сложности будут только возрастать.

По мере развития технологий «ИИ» понятие эмерджентности будет играть центральную роль. В сфере развития искусственного интеллекта эта концепция становится ключевой в устранении различных проблем «ИИ», в том числе с одной из главных, таких как галлюцинация. В этих условиях роль человека в принятии решений в условиях неопределённостей остаётся определяющей, и по мере увеличения уровня сложности систем будет только возрастать.

С. Мельниченко: Благодарю Вас за интервью, Олег Олегович.

ДОПОЛНИТЕЛЬНАЯ ИНФОРМАЦИЯ ПО ТЕМЕ:

Безопасны ли минимальные безопасные интервалы?

Статистика авиационных происшествий в мире, июль 2025 года

В отношении FAA и диспетчерской службы США проводится тщательная проверка

Россия: исчез Ан-24 (новое за 11.20 мск)

О чем поведал и о чем умолчал предварительный отчет

Индия: катастрофа Boeing 787 (новое за 15:20 мск 20.06.25)

Статистика авиационных происшествий в мире, май 2025 года

Статистика авиационных происшествий в мире, апрель 2025 года

Аэропорт Вашингтон/Рейган: проблемы продолжаются

США: что произошло после столкновения в воздухе?

Статистика авиационных происшествий в мире, март 2025 года

Новое в английской фразеологии

Эфир – не место для дискуссий

Статистика авиационных происшествий в мире, февраль 2025 года

США: безопасность в районе взлетно-посадочных полос остается под угрозой

Статистика авиационных происшествий в мире, январь 2025 года