О проблемах разработки и внедрения элементов «искусственного интеллекта» в авиационные системы

«Заблуждение — это результат неполного понимания объективной реальности».

Томас Алва Эдисон

Часть 5, продолжение.

Начало здесь: https://aviasafety.ru/45771/

Олег Олегович Гапотченко,
эксперт

Элементы искусственного интеллекта и новые вызовы

Ранее в статьях, посвящённых этой тематике, довольно подробно описывались проблемы развития и внедрения «искусственного интеллекта» («ИИ»)  в авиационные системы.   В этой статье хотелось бы уделить внимание некоторым аспектам, которые имеют практическую направленность в рамках реализации утверждённых ряда национальных программ, в том числе «Единого плана по достижению национальных целей развития Российской Федерации на период до 2024 года и на плановый период до 2030 года», утвержденный распоряжением Правительства Российской Федерации от 01.10.2021 N 2765-р.

Так, в разделах 4.1.4., 5.1.1., 5.1.3., 5.1.4. «Плана…» сформулированы основные задачи развития технологий электронной и радиоэлектронной промышленности, в том числе для целей искусственного интеллекта, обеспечение подготовки специалистов по программам высшего образования по профилю «искусственный интеллект», а также создание благоприятных правовых  и других условий для ускоренного развития технологий искусственного интеллекта. Вместе с тем, как отмечают эксперты отраслевой рабочей группы АНО «Цифровая экономика» по направлению «Цифровизация промышленности» в рамках Конференции «Цифровая индустрия промышленной России» (ЦИПР-2022), существуют некие барьеры  тормозящие процессы внедрения элементов искусственного интеллекта в ряде отраслей промышленности.

Главными барьерами сдерживающими внедрение «искусственного интеллекта»  в промышленности, по их мнению, считаются низкий уровень информированности рынка о достижениях в этой области и сложность тиражирования перспективных технологий.

Заместитель министра промышленности и торговли Российской Федерации Василий Викторович Шпак в ходе заседания отраслевой рабочей группы АНО “Цифровая экономика”, в рамках ЦИПР-2022, заявил, что «..две трети решений, которые профессиональное сообщество называет искусственным интеллектом «ИИ», по факту ими не являются. С одной стороны, мало компаний, которые эти решения имеют и о себе рассказывают. А с другой стороны, есть неопределенность понятий. Потому что понятие «ИИ» многие промышленные предприятия пугает. Например, словосочетание «промышленная автоматизация» всем понятно. Две трети решений, которые у нас профессиональное сообщество называет «ИИ», по факту никаким «ИИ» не являются. Это все решения промышленной автоматизации. Это проблема нашего профессионального сообщества. У нас ясности, четкости и прозрачности в определениях до сих пор нет“, – заявил Василий Шпак.

Ну как не согласится с замминистра промышленности?! Он абсолютно прав!

Приведенный эпизод вскрывает  ещё одну чрезвычайно важную проблему, которая может сдерживать развитие технологий «ИИ» и которой не заслуженно мало уделяется внимание на страницах  публикаций и в медиапространстве.

Это проблема агрессивной рекламы и распространения информации относительно «искусственного интеллекта» разного рода компаниями  в чисто коммерческих целях, используя термин как бренд для продвижения на рынок продукции и услуг разного назначения, куда входят и голливудские блокбастеры, и  пылесосы с кухонными комбайнами и даже механические зубные щётки вместе с духами.

Особым спросом пользуются   программные продукты, эмулирующие нейронные сети, для   смартфонов, ноутбуков и им подобных, для генерации текстов, картин, сбора различной информации по интересующим пользователей признакам и многое другое. Всё, что ещё вчера называлось средствами автоматизации, сегодня стало «искусственным интеллектом». Это не только не уводит от решения научных, технических и технологических проблем в этой сфере, но и является опасным вызовом с которым необходимо бороться.

Взрывной процесс генерации нейросетями огромного количества медиаинформации  привёл к тому, что пользователям всё труднее отличить вымысел от реальной действительности, пользуюсь средствами коммуникации. Кроме того, это  негативно влияет на профиль социального сознания и интеллекта, поскольку новые технические возможности стали активно использоваться правонарушителями в различных целях в отсутствии качественной и системной нормативно-правовой базы для регуляции процессов в этой области.

Так, Италия стала первой страной в мире, которая запретила доступ к чат-боту ChatGPT. Разработчика американской  компании OpenAI итальянский регулятор обвинил в серьезном нарушении после массовой утечки сохранности личных данных, произошедшее 20 марта 2023 года, и касающихся большого количества пользователей, включая политиков и предпринимателей. Это стало возможным из-за необходимости обеспечения доступа «ИИ» к огромным массивам информации для обучения и совершенствования своих алгоритмов.

Однако такая технологическая зависимость от сбора данных может привести к накоплению частной и другой чувствительной  информации, часто без явного согласия или осведомленности пользователей. Новаторский шаг Италии по запрету ChatGPT вызвал цепную реакцию относительно вероятности аналогичных действий со стороны других стран  и регионов. Так, ChatGPT  сейчас официально не доступен в Китае, Государственное СМИ China Daily на Weibo 22 февраля 2023 заявило, что чат-бот от OpenAI может оказывать помощь правительству США в распространении дезинформации и манипулировании глобальными нарративами в своих геополитических интересах.

Таким образом, прорывные технические решения уже сейчас могут быть опасными и представлять угрозу в различных областях человеческой деятельности и создание средств защиты средств и систем от информационных и других угроз является одним из направлений технологического развития элементов «искусственного интеллекта».

И снова о терминах

Несколько слов о том, как заметил замминистра, «…что есть неопределенность понятий. Потому что понятие «ИИ» многие промышленные предприятия пугает». Такая проблема действительно существует, о ней мы уже писали, но, видимо, есть необходимость рассмотреть этот вопрос более углублённо.

Мы отметили некий тренд, когда любые приборы содержащие простые или сложные программные продукты стали называть «искусственным интеллектом», что в корне не верно и является заблуждением.

Из ранее приведенных определений «искусственного интеллекта» и связанных с ним понятий в предыдущих статьях на эту тему, предлагается исходить из следующих простых фактов.

«Искусственный интеллект» — это, прежде всего, комплекс технологических решений и их свойства, а также научное  направление, искусственная нейронная сеть — это способ реализации «ИИ», а машинное обучение — это процесс.

Попробуем раскрыть эти дефиниции.

В соответствии с  ГОСТ Р 59276-2020 «Национальный стандарт Российской  Федерации «Системы искусственного интеллекта. Способы обеспечения доверия. Общие положения» «искусственный интеллект» определён как: « Способность технической системы имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных практически значимых задач обработки данных результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека». В Указе Президента РФ от 10.10.2019 N 490 «О развитии искусственного интеллекта в Российской Федерации» (вместе с «Национальной стратегией развития искусственного интеллекта на период до 2030 года») термин «ИИ» определен практически идентично определению, данному в ГОСТ Р 59277-2020, а именно: «искусственный интеллект – комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений».

В ГОСТ Р 70462.1-2022 «Информационные технологии. Интеллект искусственный. Оценка робастности нейронных сетей» нейронная сеть определена как: «Сеть примитивных обрабатывающих элементов, соединенных взвешенными связями с регулируемыми весами, в которой каждый элемент выдает значение, применяя нелинейную функцию к своим входным значениям, и передает его другим элементам или представляет его в качестве выходного значения».

Термин робастность здесь означает  способность системы «ИИ» поддерживать качество работы алгоритмов машинного обучения при любых условиях.

В ГОСТ Р 59895-2021 «Технологии искусственного интеллекта в образовании»   машинное обучение определено как: «Процесс автоматического обучения и совершенствования поведения системы искусственного интеллекта на основе обработки массива обучающих данных без явного программирования».

Как уже отмечалось, что из множества  терминов    «искусственный интеллект» в одной из научных школ последний  определён как: «область компьютерных наук, которая занимается созданием и разработкой систем и программ, способных выполнять задачи, требующие интеллектуальных способностей, которые обычно связываются с человеческим интеллектом». Это уже другая ветвь  системных исследований полинаучных школ в интересах получения новых знаний об объекте исследований в интересах их материализации в новых технологиях интеллектуальных средств и систем.

Таким образом, национальная нормативно-правовая база позволяет на первых этапах развития технологий «ИИ» устранить некоторые неопределённости в основных, часто употребляемых терминах и в смежных областях.

Очевидно, что по мере развертывания исследований в этих областях термины будут адаптироваться на основании новых знаний и результатов экспериментов в этой области, будет совершенствоваться и нормативно-правовая база, направленная на широкое внедрение элементов искусственного интеллекта на предприятиях радиопромышленности, в том числе в средства и системах авиационной отрасли.

После краткого анализа проблем в  определения терминов  настал черёд обсудить направления разработок и возможных проблемах в ходе  внедрения элементов «искусственного интеллекта» в авиационные бортовые системы, системы ЕС ОрВД, а также в системы коммуникации, подвижной воздушной связи  и другие.

Система управления безопасностью полётов в условиях новых вызовов

Новые вызовы значительно изменили условия работы авиационных систем на земле и в воздухе в сторону её усложнения и увеличения нагрузки на бортовые экипажи, наземные службы обеспечения полётов и обслуживающий персонал различных категорий. Это нашло своё отражение в «Комплексной Программе развития авиационной отрасли Российской Федерации до 2030 года», утверждённой распоряжений Правительства Российской Федерации от 25 июня 2022 г. № 1693-р.

Кроме того, взрывное увеличение количества беспилотных воздушных судов и беспилотных летательных аппаратов, а также увеличение посадочных площадок, посадочных полос для авиации общего пользования, автономных роботизированных станций базирования беспилотников, требует массового внедрения  средств автоматизации на всех уровнях, в том числе с использованием элементов «искусственного интеллекта» и в первую очередь в системах управления безопасностью полётами.

В разделе VII. «Состояние рынка цифровых сервисов для гражданской авиации и направления развития» отмечается «…низкий уровень проникновения отечественных цифровых сервисов и решений основных критически важных технологических процессов». Далее отмечается , что «в целях повышения уровня цифрового суверенитета в гражданской авиации Российской Федерации необходимы формирование программы приоритетного импортозамещения по каждой категории цифровых сервисов с формированием отраслевых групп участников и концентрация усилий на решении задач скорейшего внедрения отечественных программных продуктов. При реализации указанной задачи необходимо ориентироваться на самые современные отечественные решения с использованием сквозных цифровых технологий (искусственный интеллект, большие данные, Интернет вещей и биометрическая идентификация)».

О перспективах внедрения  прорывных технологий на основе элементов «искусственного интеллекта» хотелось бы обсудить в этой части статьи на примере системы управления безопасностью полетов (СУБП) как наиболее сложной системы, затрагивающей не только бортовую часть воздушных судов, но также наземные системы обеспечения, космические, коммуникационные, обслуживающие и другие.

СУБП — это разветвлённый инструментарий, который содержит все необходимые структуры и средства, используемые для осуществления двух базовых процессов управления безопасностью полетов: выявление факторов опасности и управление факторами риска. Одним из наиболее продвинутых направлений в развитии элементов «ИИ», который и должен входить в набор средств СУБП  являются   искусственные нейросети (ИНС).

Нейронные сети – это мощный инструмент   искусственного интеллекта, который способен к имитации когнитивных функций человека. Они используются для решения различных задач, таких как распознавание образов, классификация данных, прогнозирование и  многое другое.

Преимущества нейронных сетей перед другими интеллектуальными системами состоит, прежде всего, в способности машинного обучения  на больших объемах данных и извлечения необходимой информации  из этого объёма за короткий промежуток времени.

Нейронные сети могут адаптироваться к изменениям в данных и окружающей среде. Они способны обучаться на новых данных и приспосабливаться к новым условиям. Это делает их гибкими и мощными инструментами для решения различных задач. Сети могут моделировать сложные и нелинейные зависимости между входными и выходными данными. Это позволяет им решать задачи, которые не могут быть решены с помощью простых линейных моделей.

Нейронные сети могут быть эффективно распараллелены и обучены на множестве процессоров или графических ускорителях. Это позволяет им обрабатывать большие объемы данных и ускорять процесс обучения.  Могут также быть использованы для распознавания и классификации сложных образов, таких как изображения, звуки или тексты. Они могут обучаться на большом количестве примеров и находить скрытые закономерности в представленных данных, что делает их эффективными инструментами для решения задач распознавания образов.

В целом, нейронные сети представляют собой мощный инструмент машинного обучения, который может быть использован для решения различных задач при модернизации СУБД и ЕС ОрВД в целом.

Их способность обучаться на больших объемах данных, адаптивность и гибкость, способность моделировать сложные зависимости, эффективное распараллеливание и скорость обучения, а также возможность распознавания и классификации сложных образов делают их привлекательным выбором для многих приложений.

Однако несмотря на множество преимуществ, нейронные сети   имеют  серьёзные недостатки, которые следует учитывать при их использовании при внедрении в авиационные системы.

Нейронные сети требуют большого количества данных для обучения, чтобы достичь высокой точности и обобщающей способности. Если данных недостаточно или они недостаточно структурированы, сеть может столкнуться с проблемой переобучения, когда она запоминает обучающие примеры, но не может обобщить свои знания на новые данные. В этом состоит серьёзная проблема переобучения. Кроме того, сама проблема создания и использования больших баз данных представляет большую самостоятельную проблему.

Обучение нейронных сетей может быть вычислительно сложным процессом, особенно для больших и глубоких сетей. Обучение может занимать много времени и требовать больших вычислительных ресурсов, таких как графические процессоры (GPU) и других.

Нейронные сети могут быть сложными моделями, и их решения могут быть трудно интерпретировать. В отличие от некоторых других методов машинного обучения, нейронные сети не предоставляют явных правил или объяснений для своих решений. Это может быть проблемой в некоторых областях, где требуется объяснить принятые решения, например для членов экипажа, диспетчерского и обслуживающего персонала.

Нейронные сети могут быть чувствительны к шуму и выбросам в данных. Даже небольшие изменения во входных данных из-за нелинейности элементов могут привести к значительным изменениям в выходных значениях сети. Это может быть проблемой, особенно если данные содержат ошибки или неточности.

Нейронные сети имеют множество гиперпараметров, таких как количество слоев, количество нейронов в каждом слое, скорость обучения и другие параметры. Настройка этих гиперпараметров может быть сложной задачей и потребовать экспериментов и опыта.

Таким образом, главным недостатком ИНС является проблема запоминания опыта, полученного при обучении на нескольких задачах, что называется «катастрофической забывчивостью».

Искусственную нейронную сеть можно сравнить с чёрным  ящиком  из которого нельзя извлечь данные о том, с помощью какого алгоритма сеть  пришла к решению. И здесь возникает проблема доверия и способов контроля работы сети, но не на уровне рефлексии, а на уровне обнаружения тенденций. Это направление ещё находится в разработке.

Однако несмотря на рассмотренные выше проблемы и недостатки, разработка ИНС все еще остается перспективным направлением для развития элементов «ИИ и остаются мощным инструментом для решения задач, требующих нетривиального подхода  и  продолжают усовершенствоваться.

Обоюдоострое лезвие автоматизации

Широкое внедрение средств автоматизации с элементами «искусственного интеллекта» несет с собой много реальных преимуществ, и в настоящее время вопрос уже не в том, чтобы автоматизировать процесс выполнения той или иной функции организационно-технического комплекса, а в том,  как это следует делать, учитывая все многообразие проблем связанных с  человеческим фактором (ЧФ).  И если с наземными службами более-менее понятно, хотя нюансы присутствуют, то с лётными экипажами уже сейчас обозначились проблемы.

Есть основания полагать, что автоматизация функций, осуществляемых в кабине пилотов, уже достигла своего апогея, к этому склоняются многие исследователи на основании многочисленных опросов и экспериментов, выполненных в различных компаниях, обобщённых специалистами ИКАО и опубликованных в «Сборниках материалов “Человеческий фактор”», а также других материалов  доступных для профессиональных сообществ.

В материалах  рассматриваются проблемы летной эксплуатации и подготовки летных экипажей, обеспечение понимания проблем взаимодействия между человеком и комплексами вычислительных систем, при этом основное внимание уделя­ется влиянию автоматизации на работоспособность человека.

Попробуем провести краткий анализ влияния уровня кабинной автоматизации на безопасность полётов на одном лишь примере, согласуясь с материалами ИКАО по обозначенной проблеме.

 Уже сейчас в авиации наблюдается серьезная озабоченность в отношении влияния степени автоматизации в кабине пилотов на координацию работы летного экипажа, рабочую нагрузку, а в совокупности – на безопасность полетов.

С течением времени в кабинах экипажа и в авиационных системах  автоматизация вводилась постепенно. Это привело   к тому, что полеты воздушных судов стали более безопасными и экономичными. Как следует из материалов   полного единства взглядов относительно правильного использования автоматизации в деле сокра­щение числа авиационных происшествий, связанных с человеческим фактором, пока не достигнуто. Тем не менее зарегистрированные факты  свидетельствуют о том, что отказы автоматизированного оборудования, а также   сбои во взаимодействии «человек-машина» остаются важнейшими звеньями в причин­ной цепочке авиационных происшествий и инцидентов.

Одним из оснований внедрения автоматизации было стремление свести ошибки человека к минимуму. Однако опыт показывает, что устраняя некритические ошибки, автоматизация может в то же время привести к увеличению вероятности появления других серьёзных ошибок.  Это объясняется в ряде случаев изменениями в координации действий чле­нов экипажа и наземных служб в экстренных случаях при жестком дефиците времени, а также особенностями вычислительных  систем, которые   оценивают обстановку  иначе и принимают решения игнорируя вмешательство человека.

В тоже время многие функции, ранее выполнявшиеся экипажем и   легко поддающимся наблюдению и контролю, были переданы вычислительным системам, где многие процессы  скрыты или   трудно поддаются наблюдению. Внедрение перспективных вычислительных систем на ИНС, как уже отмечалось, может ещё больше осложнить ситуацию в этой области. Когда ситуация становится критической — будь то из-за ошибочного ввода данных или внезапного изменения взлетно-посадочной полосы диспетчером воздушного движения во время снижения — экипаж самолета может быть настолько занят вводом свежих инструкций в компьютер управления полетом, что может не заметить, что его воздушная скорость и высота резко падают или отклонения других параметров вышли за установленные пределы.

Это снижение осведомленности о ситуации, наряду с ухудшением базовых навыков пилотирования и огромным увеличением когнитивной нагрузки на летный экипаж, являются частью непреднамеренных последствий автоматизации кабины пилотов. В совокупности такие человеческие факторы могут   привести к аварии или катастрофе.

Результатом неправомерного решения разработчиками о передачи функций вычислительной системе выбора режима без контроля со стороны экипажа стали катастрофы Boeing 737 MAX  в Джакарте и Аддис-Абебе, где погибли 346 человек. Пилотам так и не удалось отключить автомат управления триммером высоты. И перечень отказов бортовых систем, а их на типичном лайнере около 90 различных комплектов, продолжает оставаться довольно внушительным.

При создании интеллектуальных вычислительных систем   существует установившаяся тенденция сравнивать человека и машину с точки зрения сопоставления качества исполнения ими ряда когнитивных функций.  Сторонники этого сравнения доказывают, что для планирования, проекти­рования и эксплуатации сложных систем при описании функций человека и машины следует использовать одни и те же параметры. Это означает, что описание функций человека математическим языком сравнимо с тем, который используется при опи­сании механических функций или алгоритмов программы.

Ошибочность этого утверждения состоит в том, что свести функции человека  к математической формуле невозможно в принципе.

Во-первых, мы практически ничего не знаем о когнитивных функциях как атрибуте нашего сознания. Машина может лишь их имитировать, что приведено в определении «искусственного интеллекта» и нормативно закреплено.

Во-вторых, отражение объективной реальности «искусственным интеллектом» и человеком имеет существенные отличия, что порождает проблему ещё большего масштаба и решения которой принципиально не просматривается. Однако эта проблема проявляет себя всё чаще по мере насыщения окружения человека интеллектуальными системами не только в кабине экипажа, но и в обычной жизни.

В большинстве опубликованных материалов по этой проблеме   «…не признается целесообразность каких-либо сравнений в данной области и поддерживается утверждение о том, что человек и машина несопоставимы, но могут и должны дополнять друг друга». В материалах ИКАО : «Циркуляр 234-an/142, Сборник материалов “Человеческий фактор” № 5 ,  отмечается: «Вместо того чтобы срав­нивать способности человека и машины при выполнении той или иной задачи, сле­дует подумать о том, как человек и машина могли бы дополнить друг друга для выполнения этой задачи. Автоматизация должна дополнять, а не вытеснять функ­ции человека в управлении и контроле на гражданском воздушном транспорте. Следовательно, предлагается «очеловечить» процесс создания новой техники с учетом человеческого фактора».

И здесь уместно привести цитату Норберта Винера из его книги «Творец и робот»: «Отдайте же человеку – человеческое, а вычислительной машине – машинное». В этой работе убедительно и доказательно приводится описание этой проблемы и обозначаются основные направления её решения, которые являются актуальными и по сей день.

Заключение

Автоматизация современных воздушных судов, систем УВД, СУБП, обеспечивающих служб и  других систем, безусловно способствует повышению экономической выгоды и безопасности полетов. Однако темпы ее роста с появлением элементов «искусственного интеллекта» настолько высоки, что на данный момент трудно прогнозировать, как это скажется на развитии модернизируемых систем и на развитии всего авиационного организационно-технологического комплекса.

Очевидно анализ, проектирование, внедрение и установку автоматизированных систем в кабинах современных воздушных судов, в органах планирования,  диспетчерского управления, службах обеспечения и контроля  следует осуществлять на основании тщательно разработанной и согласованной концепции,   с учётом новых требований и вызовов настоящего времени. Так как автоматизация, как и эволюция – неизбежны, то имеет смысл принять ее постепенное внедрение как факт. Однако это не означает, что человек должен занять роль оператора.   Главной задачей человека было и остается постоянно находиться в контуре управления и использовать эффективно накопленный опыт знания и навыки.

Исходя из этого хотелось бы сформулировать три важных  условия в направлениях  исследований  при создании новых технологий в интересах развития автоматизации в авиационной сфере в новых условиях.

В основу проектирования элементов и комплексов систем должны быть положены принципы функционирования автоматизированных систем, которые могут быть легко интерпретируемыми и понятными для пользователей. Это необходимо для повышения эффективности работы экипажей, диспетчерского персонала и возможности  передаче своего опыта и знаний  системам с использованием технологии машинного обучения. Таким образом, каждый из управленцев будет иметь возможность создать для себя квалифицированного помощника, с учетом своих пожеланий и особенностей восприятия ситуации, а не иметь стандартный автомат. Развитие таких систем позволит принимать решения не на уровне рефлексии, а на уровне тенденций развития ситуации, что является высшим пилотажем в технологии управления. Это позволит исключить множество проблем уже на этапе их зарождения.

Разработка концепций, а также поиск технологических решений для  систем управления нового поколения не может быть эффективным без широкого использования систем и комплексов моделирования  элементов с «искусственным интеллектом». Имитационное моделирование может удачно применяться при разработке искусственного интеллекта в различных вариантах. Имитационная модель может быть использована как генератор произвольного количества данных. Это достаточно актуальный способ использования имитационного моделирования, так как при обучении искусственного интеллекта часто возникает проблема нехватки данных, а также  стать средой для обучения и тестирования искусственного интеллекта. В этом варианте моделирование может чередоваться с циклом обучения. Также искусственный интеллект, обученный произвольным способом, независимо от построенной модели может быть включен в эту модель как вспомогательный компонент. Такое применение находит широкое распространение, ввиду универсальности и удобства использования.

По мере того, как кибератаки становятся все более изощренными, а их последствия — более серьезными, традиционные системы безопасности превращаются в вещи ушедшей эпохи. Благодаря способности извлекать уроки из предыдущих атак и адаптироваться, «искусственный интеллект» становится бесценным активом как для киберпреступников, так и для их противников.

Использование «ИИ» в кибербезопасности имеет ряд серьезных преимуществ, таких как более быстрое обнаружение угроз, идентификация угроз и реагирование на угрозы, что чрезвычайно важно для авиационных систем различного уровня.   Уже на этапе создания элементов «ИИ» должны быть заложены аппаратные, программные и системные средства защиты от внутренних и внешних несанкционированных воздействий, в том числе с помощью технологий машинного обучения.

Именно поэтому на данном этапе развития науки и прорывных технологий мы должны учесть все возможные риски в области создания систем с элементами «ИИ», чтобы защитить и сохранить результаты деятельности всех, кто принимает участие в их создании, от кибератак и других воздействий в новых условиях.

Да пребудет с нами Сила!

О.О. Гапотченко,
эксперт

Литература:

Указ Президента РФ от 10.10.2019 N 490 “О развитии искусственного интеллекта в Российской Федерации” (вместе с “Национальной стратегией развития искусственного интеллекта на период до 2030 года”).

http://www.kremlin.ru/acts/bank/44731

ГОСТ Р 43.0.5-2009 «Процессы Информационно-Обменные в технической деятельности».

https://docs.cntd.ru/document/1200079262?ysclid=lojjl4ui5r296819334

ГОСТ Р 59277-2020 «Классификация Систем Искусственного Интеллекта».

В ГОСТ Р 59895-2021 «Технологии искусственного интеллекта в образовании» https://docs.cntd.ru/document/1200181910?ysclid=lqjv8zeb87354099319

«Комплексная Программе развития авиационной отрасли Российской Федерации до 2030 года», утверждённой распоряжений Правительства Российской Федерации от 25 июня 2022 г. № 1693-р,

https://docs.cntd.ru/document/350899839?ysclid=lqjvcp2357105526552

Распоряжение Правительства РФ от 01.10.2021 N 2765-р «Об утверждении Единого плана по достижению национальных целей развития Российской Федерации на период до 2024 года и на плановый период до 2030 года»,

https://legalacts.ru/doc/rasporjazhenie-pravitelstva-rf-ot-01102021-n-2765-r-ob-utverzhdenii/?ysclid=lqjuxpe9p9617247927

Doc 9859. Руководство по управлению безопасностью полетов (РУБП) https://ya.ru/search/?text=ИКАО+__МОДЕЛЬ+РИЗОНА&lr=10716, https://ya.ru/search/?text=ИКАО+__МОДЕЛЬ+РИЗОНА&lr=10716

Винер Н. Кибернетика, или Управление и связь в животном и машине / Н. Винер; пер. с англ. И. В. Соловьева и Г. Н. Поварова; под ред. Г. Н. Поварова. – 2-е издание. – М.: Наука; Главная редакция изданий для зарубежных стран, 1983. – 344 с.

Циркуляр 234-an/142 ИКАО1992 человеческий фактор сборник материалов № 5, https://dream-air.ru/tpl/cir/234_ru.pdf?ysclid=lqjuv7zf6377371160

«Подмена понятий подвела искусственный интеллект»,https://www.comnews.ru/content/220572/2022-06-06/2022-w23/podmena-ponyatiy-podvela-iskusstvennyy-intellekt?ysclid=lqcraue0o7445575619.

Италия первая в мире запретила использование ChatGPT,https://vc.ru/future/651858-italiya-pervaya-v-mire-zapretila-ispolzovanie-  chatgpt.

Норберт Винер «Творец и робот», https://triz-guide.com/storage/app/media/books/viner_n_tvorec_i_robot.pdf

Иллюстрация: Magzter

МКАА «Безопасность полетов» не несет ответственности за содержание этого материала. Содержимое сообщения не обязательно является мнением или взглядом учредителей МКАА «Безопасность полетов». Материал публикуется с целью ознакомления авиационного сообщества с различными мнениями специалистов.

Содержание материалов представлено в том виде, в котором их подготовили авторы – без какой-либо редакторской правки.

Я ХОЧУ ВНЕСТИ ЛИЧНЫЙ ВКЛАД В БЕЗОПАСНОСТЬ ПОЛЕТОВ В РОССИИ!