О внедрении элементов “искусственного интеллекта” в авиационные системы и новый взгляд на проблемы человеческого фактора

Олег Олегович Гапотченко,
эксперт

В ранних публикациях уже  затрагивались  проблемы человеческого фактора (ЧФ) в связи с тенденциями и планами внедрения элементов «искусственного интеллекта» в различные авиационные системы и комплексы.

Поскольку тема носит полинаучный характер, где задействованы, десятки нейронаучных и других школ, изучающих когнитивные функции человека, то хотелось бы в рамках этой статьи кратко остановится на отдельных аспектах, которые не часто фигурируют при обсуждении среди авиационного сообщества и не только.

Имеет смысл начать с определения сложной динамической нелинейной системы, куда подпадают авиационные  системы различного назначения, космические системы, социальные группы, к которым относятся экипажи и отдельные пилоты, а также диспетчерские и другие наземные службы и организации.

При всех своих преимуществах, которые проявляются в большей гибкости и адаптивности, а также  в устойчивости к внешним воздействиям, нелинейные системы имеют ряд существенных ограничений — это сложность анализа и проектирования, потребность в больших вычислительных ресурсах, а также трудно прогнозируемые нелинейные эффекты. Последнее ограничение относится к эмерджентным свойствам нелинейных систем, то есть к наличию у системы свойств, не присущих её компонентам по отдельности. Эта особенность   также требует дополнительных ресурсов для минимизации проблем с их проявлением.

Кроме того, подобные системы могут классифицироваться как эргатические. Эргатические системы управления относят к классу сложных систем с нелинейными свойствами, где в качестве системного элемента или элементов присутствует человек и подсистемы с использованием «искусственного интеллекта», в связи с чем риски снижения надежности и эффективности функционирования поддерживаются в рамках заданных требований.  Эргатические системы, в отличие от других систем, обладают рядом преимуществ, таких как эффективное использование нечёткой логики, адаптивность к другим условиям, а также принятие решений в нестандартных ситуациях.

Об особенностях интеллектуальных систем

Бурное развитие кибернетики, вычислительной техники, биотехнологий, искусственного интеллекта, привело к появлению новых методов и средств управления и оптимизации сложных систем управления. На стыке современной теории управления, «искусственного интеллекта» («ИИ»), нейрофизиологии и микроэлектроники, активно формируется и развивается такая область исследования, как интеллектуальное управление. Интерес к интеллектуальным системам управления обуславливается целым ря­дом причин. Одна из причин состоит в том, что традиционные технологии уже не в со­стоянии обеспечить требуемого повышения качества управления, поскольку не учиты­вают всех неопределенностей, воздействующих на систему.

Важно отметить, что главная особенность, которая отличает интеллектуальную систему управления   от построенной по «традиционной» схеме, связана с под­ключением механизмов хранения и обработки баз  данных для реализации способностей по выполнению требуемых функций в неполно заданных или неопределенных условиях при случайном характере внешних возмущений. При этом естественно возникает и требует специального исследования целый комплекс вопросов  о составе и оптимизации объемов баз данных, выборе формы их представления, способах их формирования и верификации, а также обмена данными между элементами системы и многих других.

Одним из таких технологических направлений в трансформации существующих больших систем широко практикуется гибридизация методов интеллектуальной обработки информации. Использование технологий мягких вычислений, в таких системах, объединяет такие области, как нечеткая логика, искусственные нейронные сети, извлечение необходимой информации, базы данных, эволюционные алгоритмы и другие. Они дополняют друг друга и используются в различных комбинациях для создания гибридных интеллектуальных систем.

В рамках развития этого тренда  интеллектуальные мультиагентные системы (ИМС) стали одними из новых перспективных направлений «искусственного интеллекта», кото­рое сформировалось на основе результатов исследований в обла­сти распределенных компьютерных систем, сетевых технологий  и технологий параллельных вычислений. В мультиагентных технологиях заложен принцип автономности отдельных час­тей программ-агентов, совместно функционирующих в рас­пределенной системе, где одновременно протекает множество взаимосвязанных процессов.

В мультиагентных системах (MAC) множество автономных агентов действуют в интересах различных пользователей и взаи­модействуют между собой в процессе решения определенных за­дач. Примерами таких задач являются: управление информаци­онными потоками и сетями, управление воздушным движением и другими транспортными системами, управление системами баз данных и другими им подобных.

Рост интенсивности работ в развертывании и эксплуатации подобных систем имеет целью получение суверенитета на принятия решений, пока на низших уровнях, которое ранее принадлежало человеку. Таким образом, интеллектуальное пространство человека, где осуществлялись процессы принятия решений и управление, сокращается в интересах «машин». Где же здесь предел «машинной экспансии»?

Этот вопрос вызывает множество споров  среди научного сообщества, бизнеса, технологов-разработчиков и других сообществ. Вопрос о роли и месте человека в бурно развивающемся техногенном мире еще более обострился и разрешение его в ближайшей обозримой перспективе не просматривается, если не считать многих футуристических прогнозов, которые не имеют под собой хоть сколько-нибудь значащего обоснования.

Для дальнейшего анализа ситуации в обозначенной теме, нам не уйти от анализа некоторых официальных документов, где изложены взгляды на проблемы человеческого фактора.

И снова о терминологии   

Сначала обратимся к документам ИКАО. Так, в Doc 9683-AN/950, 1998 г., «Руководство по обучению в области человеческого фактора», дано определение следующее: « Человеческий фактор — это наука о людях в той обстановке, в которой они живут и трудятся, о их взаимодействии с машинами, процедурами и окружающей обстановкой, а также о взаимодействии людей между собой.»

Одно из определений человеческого фактора, предложенное авиационным психологом профессором Элвином Эдвардсом, формулируется следующим образом:

“Работа в области человеческого фактора (ЧФ) направлена на оптимизацию взаимоотношений между людьми и их деятельности путем системного применения знаний о человеке в рамках конструирования систем”.

В ГОСТ Р 55585-2013 определено-«человеческий фактор (при производстве полетов воздушных судов): Обозначение вида признаков проявления и влияния характеристик психофизической деятельности человека на процессы выполнения полетов воздушных судов в рамках функционирования авиационной транспортной системы».

В этом же ГОСТе определено-«личностный фактор (при производстве полетов воздушных судов): Обозначение признаков и результатов положительных или негативных проявлений деятельности людей в рамках функционирования авиационной транспортной системы, обусловленных их ограниченными возможностями и недостатками корпоративной культуры и превращающимися в угрозы процессу выполнения нормального полета».

Итак, в одном определении (ЧФ) это наука, в другом-процесс.

Несколько слов о термине «ошибка». Здесь тоже всё далеко не просто. Так, в Cir 300AN/173 ICAO, «Сборник материалов “Человеческий фактор” № 15, Ошибка человека», определено-«Ошибка человека определяется как случайный или вспомогательный фактор при возникновении большинства авиационных происшествий. Очень часто эти ошибки совершаются хорошо подготовленным, квалифицированным, опытным (т. е. обладающим профессиональными навыками) и мотивированным персоналом. Ошибка человека является естественным результатом продукта человеческого мозга, который использует заранее заготовленное клише и символы для осуществления направленных на выполнение целей действий. Эти клише иногда приводят к ошибкам».

В ГОСТ Р 57908-2017, «Воздушный транспорт» определено-  «ошибка: действие или бездействие эксплуатационного персонала, приводящее к отклонениям от намерений или ожиданий организации или данного персонала».

В Doc 9859, «Руководство по управлению безопасностью полетов (РУБП)»-«ошибка является “действием или бездействием эксплуатационного персонала, приводящим к отклонениям от намерений или ожиданий организации или этого персонала”. Здесь же «Активные отказы можно рассматривать либо как ошибки, либо как нарушения. Различие между ошибками и нарушениями заключается в компоненте мотивации. Лицо, которое старается наилучшим образом выполнить задачу, следуя при этом правилам и процедурам, которым его научили в ходе подготовки, но которое не может выполнить поставленной перед ним задачи, совершает ошибку. Лицо, которое при выполнении задачи намеренно не следует правилам, процедурам или принципам полученной подготовки, совершает нарушение. Таким образом, основным различием между ошибкой и нарушением является намерение».

В этой интерпретации проводится грань между ошибочными действиями и нарушением.

Приведенные примеры терминов и определений  в различных документах ИКАО и ГОСТ, и это далеко не полный перечень, свидетельствуют о широкой палитре толкований и интерпретаций терминов «человеческий фактор, личностный фактор, ошибка, ошибочные действия, нарушение» в зависимости от контекста и направленности документа в котором они используются. Однако различное, а иногда и неоднозначное толкование,  размывает границы однозначного понимания и множит неопределённости в формировании смыслов.

Безусловно это создаёт трудности в разработке соответствующих нормативных документов и имплементацию их в национальную правовую базу. И неслучайно во многих документах ИКАО имеется примечание в котором указывается, что «определение не имеет самостоятельного статуса, но является важной частью каждого Стандарта и Рекомендуемой практики, в которых употребляется термин, поскольку изменение значения термина может повлиять на смысл требования. Таблицы и рисунки, которые дополняют или иллюстрируют тот или иной Стандарт или Рекомендуемую практику, где на них делается ссылка, являются частью соответствующего Стандарта или Рекомендуемой практики и имеют тот же статус».

Ещё одной семантической и терминологической проблемой является неточность перевода, которая рождает иные смыслы, чем те которые указаны в оригинале.

Так например, такой важный термин как «Hazard» (Опасность), определение  и  понимание которого по смыслу не менялось во всех документах ИКАО на английском, в русском переводе имеет как минимум 4 варианта перевода:  Фактор опасности (Приложение 6, 2009 г.); Опасность (РУБП, 2009 г.); Опасный фактор (РУБП, 2013 г.); Опасность (Приложение 19, 2013 и 2016 гг.); Источник опасности (Приложение 19, 2013 и 2016 гг.). Очевидно, что разность в смысловой нагрузке присутствует.

К сожалению, таких примеров достаточно много. При создании СУБП авиапредприятия  у разработчиков, естественно, возникает масса вопросов о толковании и использовании терминов и определений.

Выражение человеческий фактор часто используется, как объяснение причин катастроф и аварий, повлёкших за собой убытки или человеческие жертвы. Этим многозначным термином, описывается  возможность принятия человеком ошибочных  решений в конкретных ситуациях, но как ни странно, подвергаются критике только  ошибки, а вот о принятии нестандартных решений, требующих от человека неординарных способностей, как-то замалчивается. А ведь это колоссальный опыт, который по технологии машинного обучения надо передать интеллектуальным системам и работать вместе с ними в активном содружестве.

Василий Ершов-легендарный лётчик, с двумя десятками тысяч часов налёта, член союза писателей оставил в качестве наследия более двух десятков книг и множество публикаций о лётной практике и людях в креслах пилотов и диспетчерах. Это неценимый труд, где человеческий фактор поднят на то место, которое он заслужил по праву, а не упоминается только в материалах расследований.

Совсем не случайно термин «человеческий фактор» соседствует с термином «ошибка» практически во всех документах ИКАО в качестве намёка на потенциального виновника всех бед. А так ли это? Попробуем порассуждать на эту тему.

С термином «ошибка» связны термины «ошибочные действия», «нарушение предписанных процедур, наставлений, инструкций» и многое другое. И тем не менее в документах указывается, что человек работать без ошибок  принципиально не может. И это, если угодно, основной способ человека в познании мира и себя самого. Однако главный смысл действий человека заключается в  раннем обнаружении, признаков отклонений  работы системы от допустимых параметров, прогнозирования их проявления и в соответствующем реагировании на их возможные негативные последствия.

О модели Джеймса Ризона

В качестве модели обнаружения признаков отклонений от заданных процедур и параметров работы системы, а также предотвращения негативных последствий от случайных воздействий, выдающимся психологом, профессором Джеймсом Ризоном была предложена модель «швейцарского сыра». В ней он развил теорию о том, что авиационное происшествие никогда не происходит по одной единственной причине. Это всегда совокупность причин, всегда несколько элементов защиты, которые не сработали штатно и не остановили развитие процесса, который закончился   аварией. Это хорошо согласуется с давно известными положениями теории вероятности о сложении и умножении вероятностей независимых событий.

Все аварии, чрезвычайные происшествия и тому подобные происходят из-за нескольких взаимосвязанных факторов, которые в совокупности приводят к общему отказу системы. В модели швейцарского сыра защита от отказа моделируется как серия несовершенных барьеров, представляемых в виде ломтиков швейцарского сыра с отверстиями. Отверстия в срезах представляют собой слабые места в отдельных частях системы и постоянно меняют свой размер и положение на ломтике.

Отказ системы происходит, когда отверстия во всех ломтиках совпадают, позволяя угрозе пройти сквозь все слои и реализоваться. Несмотря на критику, модель швейцарского сыра была принята авиационным сообществом из-за своей простоты и  наглядности как универсальное, своего рода эмпирическое правило, которое используется для объяснения любого несчастного случая или аварии. Возможно, жесткое применение этой модели может привести к поиску скрытых условий, вызвавших несчастный случай, когда основной причиной может быть нечто иное, чем человеческий фактор. Одного понимания того факта, что все меры защиты связаны между собой, недостаточно. Для минимизации рисков модель прогнозирования должна раскрывать, как именно они связаны.

Примечателен в этой модели тот факт, что в качестве первого защитного барьера Джеймс Ризон определил как «принятие решения и ошибочные решения». И ключевым словом здесь выступает «решение».

В этой реальной парадигме скрытой цепи случайностей, связанных причинно-следственной связью, последними звеньями всегда оказываются диспетчер и пилот как целостная, сложная нелинейная система. Экипаж воздушного судна, в ряде случаев, вынужден принимать решения в неблагоприятных условиях, которые были созданы «экипажами» всей цепи Ризона. Ошибки диспетчера и экипажа — это проявление качества всей системы управления безопасностью авиакомпаний  и государственных органов занятых  регулированием в этой сфере, в задачу которых и входит создание необходимых  условий  для работы сотрудников СУБП, диспетчеров и экипажей воздушных судов, в том числе созданием актуальной, наглядной и понятной для всех нормативной документацией.

Резюмируя этот фрагмент статьи, нельзя не заметить. Что тот намечаемый прорыв в оснащении авиационных систем интеллектуальными системами, должен быть направлен, в первую очередь, на решение задач обнаружения скрытых угроз в виде возможных  предельных отклонений от расчетных параметров системы и предложения оптимальных и  безопасных решений увода системы в безопасную область режимов работы.

Таким образом, технология управления в СУБП должна осуществляться не на уровне рефлексии, а на уровне тенденций, с использованием новых баз  данных, скоростного обмена информацией и мощных нейронных сетей, которым под силу  решить эту задачу. Её лишь надо грамотно сформулировать в виде проработанной и согласованной концепции, а также проектных заданий для конструкторов и разработчиков.

Очевидно, что в этом процессе главным лицом должен выступить профессионал, который на постоянной основе, используя технологии машинного обучения, будет передавать свой опыт, знания и навыки интеллектуальным системам.

Однако без объединения усилий конструкторов и разработчиков интеллектуальных средств и систем с исследователями и практиками в области когнитивной нейробиологии и других наук в этой области  решить эту задачу будет невозможно или весьма проблематично. Можно предположить, что потребуется включение в состав подразделений системы управления безопасности авиакомпаний и служащих госорганов дополнительно к эргономистам и психологам общей практики специалистов в области когнитивной нейробиологии. Кроме того, потребуется организовать и провести работу по разработке и корректировке нормативной базы.

К вопросу об ошибках

Статистика авиационных происшествий и серьезных инцидентов убедительно свидетельствует, что при общем снижении количества   катастроф, с  1970 г. по настоящее время   более чем в два раза, основными причинами происшествий  по-прежнему являются ошибки экипажа, которые находятся, по материалам ИКАО, в пределах 50-60 процентов от  всех остальных ошибок «человеческого фактора» и нет заметных тенденций к снижению этого показателя.

С одной стороны, заметный рост авиационной безопасности, главным образом  за счёт повышения качества и надёжности техники и широкого внедрения в процессы обеспечения безопасности полётов средств автоматизации и перспективных технологий управления всеми процессами, с другой стороны, стагнация в части снижения показателя количества ошибок человека, особенно экипажей воздушных судов, в процессе авиационной деятельности.

Попробуем осветитель эту тему подробнее и последуем мудрой сентенции великого Эйнштейна: «Ты никогда не решишь проблему, если будешь думать так же, как те, кто ее создал».

То есть, нужно научиться менять точку зрения. Вернее угол, под которым рассматривается ситуация. В нашем случае нужен другой взгляд на ошибку и её природу. И необходимо рассматривать это явление  во всём многообразии причин его породившего. Можно допустить, что ошибка есть неизбеж­ный не спрогнозированный результат оценки  тех или иных обстоятельств, в том числе и результа­тов  действий человека, которые он, добросовест­но заблуждаясь, представлял себе исключительно правомерными или негативными, однако кото­рые таковыми не оказались.

Между тем, ошибка и заблуждение – это не одно и то же. Ошибка – результат непосредственного познания или действия. Заблуждение–есть продукт ошибки  и рождается на ее основе. Однако и ошибка и заблуждение – это проявление когнитивной системы человека, о свойствах которой мы знаем ещё слишком  мало и здесь уместно сослаться на работы учёного исследователя Даниэля Канемана, который всю жизнь занимался исследованием психологии поведения людей, лауреата Нобелевской премии по экономике и автора известной сегодня социологам, психологам  и экономистам   «Теории перспектив».

Это теория построена на ряде интереснейших и информативных исследованиях, которые заставили социологов и психологов иначе взглянуть на психологию поведения людей и не всегда искать в поведении людей логику и рационализм. В своей теории Д. Канеман  замечает, что «..мы никогда не принимаем решения  в отрыве от существующих условий. Эти условия создают в нас эмоциональный фон и почву для эмоционального выбора. И на этом фоне некоторые проблемы человеческого поведения в условиях риска сталкиваются с субъективным характером оценок вероятности, что может в корне отличаться от объективных. Принимаемые решения в определенном контексте  отличаются  ситуативностью и окрашиваются не рационализмом, а эмоциями от текущей ситуации», и как отмечает автор,  при этом «рушатся все рациональные теории».

В   работах автор формулирует тезис  о том , что человеку  присущи две системы мышления: «система А: интуитивная, подсознательная или даже бессознательная, автоматическая, быстрая и система B: основанная на логике, медленная, которая перепроверяет систему A и способна на вычисления и рационализацию».

Автор подчёркивает, что любая внештатная опасная  ситуация   заставляет нас включить систему B и проанализировать новую цепочку событий. Именно поэтому пилоты в летных училищах не только отрабатывают до автоматизма навыки и рефлексы, но и учатся задумываться.  Так выстраивается интуиция как следствие опыта и практики и так рождаются ассы лётной профессии.

Итак, резюмируем этот раздел замечанием Нобелевского лауреата: «..люди действуют нелогично вопреки предположениям о базовой рациональности  большинства из нас.  Но особенно интересно, что подобное поведение упорядочивается и объясняется некоторыми принципами, связанными не с логикой, а с психологией».

По последним публикациям известных отечественных и зарубежных нейропсихологов, таких как Т. Черниговская, А. Лурия, Т. Роббинс,   мозг сам периодически генерирует ошибки для проверки и тестирования собственного детектора ошибок, но  и для поддержания   системы распознавания ошибок в рабочем состоянии в интересах устранения когнитивных помех и искажений, которые мешают правильному восприятию реальности.

Этот раздел посвящённый ошибке хотелось бы завершить цитатой польского философа, писателя и публициста Станислава Ижи Лец: «Ошибка становится ошибкой когда рождается как истина».

Таким образом, такие термины как человеческий фактор, ошибка, заблуждение и другие им подобные, которые директивно определены нормативными документами, должны применяться с их определениями, но в творческом креативном исполнении применительно к конкретной ситуации не доводя  логику до абсурда. Для этого существует порядок внесения поправок в нормативные акты и его надо активно использовать с принятием своевременных и взвешенных решений на всех уровнях цепи модели Ризона.

В качестве резюме

Как следует из  анализа документов, где изложены основные принципы и технологии взаимодействия человека с интеллектуальными авиационными системами, возникает ощущение некоторой парадоксальности.

С одной стороны, внедрение подобных систем требует передачи части принимаемых решений «машине» для освобождения интеллектуальных ресурсов человека для решения более важных и критичных задач. С другой стороны, существует риск потери контроля над «машиной» в которой вероятность сбоев принципиально присутствует.

Позитивисты ратуют за исключение человека из контура управления подменяя человека его цифровыми двойниками и отведя ему роль оператора, их оппоненты, и их не много, подходят к этому вопросу более взвешенно и осторожно.

Со всей очевидностью компромисс лежит в области максимального использования уникальных свой когнитивной системы человека и растущих мощностей интеллектуальных систем, которые в решении ряда задач значительно превосходят возможности человека.

Как уже отмечалось выше попытка формального описания и сравнения  когнитивной системы человека и «машины» является заблуждением. Определение изложено выше.

Во-первых, человек и «машина» воспринимают объективную реальность принципиально  по-разному.

Во-вторых, реальностей с которыми работают субъекты (люди) и объекты столько, сколько их самих. Каждый человек носитель своей реальности, именно это делает его личностью и термин «личностный фактор» здесь логично дополняет этот факт.

И в-третьих, как уже отмечалось, интеллектуальные системы требуют огромных массивов разнообразной информации и времени для реализации эффективных технологий машинного обучение с человеком и без него. Проблемы «катастрофической забывчивости», а также сложная процедура проверки массивов информации на наличие ошибок и влияние внутренних негативных корреляций и шумов, находятся только на стадии исследований. Нет сомнения в том, что в ходе исследований и экспериментов будет обнаружено ещё не одно эмерджентное свойство интеллектуальных систем, которое породит цепь других неопределённостей, как в шахматах количество открывающихся комбинаций после каждого хода.

В этой связи очевидно, что компромиссное решение может быть найдено в ходе совместной, и скоординированной работы научно-технологических школ, когнитивной науки и её прикладных разделов, а также передовых конструкторских и испытательных центров промышленности. И в этом сомнений нет.

Да пребудет с нами Сила!

Литература

  1. Воздушный кодекс Российской Федерации” от 19.03.1997 N 60-ФЗ (ред. от 04.08.2023) https://www.consultant.ru/document/cons_doc_LAW_13744/?ysclid=lr9cs9l87z352629047
  1. ГОСТ 34.003-90. Информационная технология. Комплекс стандартов на автоматизированные системы. Термины и определения. https://docs.cntd.ru/document/1200006979?ysclid=lr9f5k8nlu621812020
  1. ГОСТ Р 55585-2013. Воздушный транспорт. Система управления безопасностью полетов воздушных судов. Термины и определения. https://docs.cntd.ru/document/1200109124
  1. ГОСТ 34.003-90. Информационная технология (ИТ). Комплекс стандартов на автоматизированные системы. Автоматизированные системы. Термины и определения.  https://www.astoni.ru/upload/iblock/433/GOST-34.003_90.pdf?ysclid=lr9bjnoq22812488284
  1. ГОСТ Р 57908-2017.  Воздушный транспорт. Система менеджмента безопасности авиационной деятельности, база данных. Авиационные риски по реализации системы оценки безопасности полетов при обеспечении воздушного движения. https://docs.cntd.ru/document/1200157566?ysclid=lr9bt03bas529356973
  1. ГОСТР51897—2011. Руководство ИСО 73:2009. Менеджмент риска. Термины и определения. https://medprofsouz.ru/media/userfiles/files/51897-2011.pdf?ysclid=lr9bmuk7k9143802429
  1. Doc 10004 ИКАО. Глобальный план обеспечения безопасности полетов. https://caa.gov.kz/storage/app/media/дубп/ICAO%20Doc%2010004_kz.pdf 
  2. Cir 314 ИКАО. Контроль факторов угрозы и ошибок (КУО) при управлении воздушным транспортом. 
    https://dream-air.ru/tpl/cir/314_ru.pdf?ysclid=lr9aqc3lsv782402405
  1. Doc 9859 ИКАО. Руководство по управлению безопасностью полетов. https://caa.gov.kz/storage/app/media/дубп/9859_РУКОВОДСТВО%20ПО%20УПРАВЛЕНИЮ%20БЕЗОПАСНОСТЬЮ%20ПОЛЕТОВ.pdf
  1. Cir 300AN/173 ICAO. Сборник материалов “Человеческий фактор” № 15. https://dream-air.ru/tpl/cir/300_ru.pdf?ysclid=lr9b1m1j38661265985
  1. Doc 9683-AN/950 ИКАО. Руководство по обучению в области человеческого фактора. https://standart.aero/en/icao/book/документ-9683-руководство-по-обучению-в-области-человеческого-фактора-ру-конс
  1. Doc 4444 ИКАО. Правила аэронавигационного обслуживания. Организация воздушного движения https://training.urrv.ru/wp-content/uploads/2019/12/4444_cons_ru.pdf?ysclid=lr9bccpowt975421948
  1. Приложение 6. ИКАО. Эксплуатация воздушных судов. Часть II. Международная авиация общего назначения. Самолеты. https://caa.gov.kz/storage/app/media/icao/pril-6.-ch-ii.-mezhdunarodnaya-aviacziya-obshhego-naznacheniya.-samolety.pdf
  1. Doc 9806 ИКАО. Основные принципы учета человеческого фактора в руководстве по проведению проверок безопасности полетов. https://aerohelp.ru/sysfiles/374_268.pdf
  1. Cir 234-AN/142 ИКАО. Эксплуатационные последствия автоматизации в оборудованных передовой техникой кабинах экипажа. https://dream-air.ru/tpl/cir/234_ru.pdf?ysclid=lr9cvr5mgu436078792
  1. Doc 9824 ИКАО. Основные принципы учета человеческого фактора в руководстве по техническому обслуживанию воздушных судов. http://laynercenter.ru/images/IKAO/ICAO_doc_9824_izd_1.pdf
  1. Система документов ИКАО по безопасности полетов. https://cdn.aviaforum.ru/data/attachment-files/2019/11/1457535_0c876e4dbda35ef8c0fe1459b422e720.pdf
  1. Doc 9683-AN/950 ИКАО. Руководство по обучению в области человеческого фактора. https://sparcatc.ru/files/ICAO_Doc-9683-Rukovodstvo-po-obucheniyu-v-oblasti-chelovecheskogo-faktora-pdf.io.pdf
  1. С. Н. Тиц. Человеческий фактор. https://www.flightcenter.aero/sites/default/files/inline-files/tic-s.n.-chelovecheskii-faktor.pdf?ysclid=lr9evmva4i594235412
  1. Теория перспектив Канемана. https://goal-life.com/page/kniga/idea/teoriya-perspektiv?ysclid=lr9ey0x2pa147030639
  1. «Будущее — вызовы и проекты. междисциплинарный контекст». С.П.Курдюмов, Г.Г.Малинецкий. https://spkurdyumov.ru/forecasting/budushhee-vyzovy-i-proekty/?ysclid=lr9fc5pobg221861810
  1. Человеческий фактор в авиации и реализация системы управления безопасностью полетов. Власов В.Д. https://aviacosmosmed.ru/wp-content/uploads/2023/01/chelovecheskij-faktor-v-aviaczii-i-realizacziya-sistemy-upravleniya-bezopasnostyu-poletov.pdf
  1. Нейропсихология учебное пособие. https://elib.usma.ru/bitstream/usma/2363/1/VR_2020_002.pdf
  1. Нейропсихология: эпоха Л.С. Цветковой. Шипкова К.М., Цветков А.В., Семенович А.В., Сергиенко А.А., Селявко Л.Е. (Москва, Россия). http://mprj.ru/archiv_global/2017_3_44/nomer08.php
  1. Мир другими глазами: мозг зеркальный и “неверный”. Лекция. Татьяна Черниговская. https://www.livelib.ru/author/669365/top/listview/biglist/~2
  1. Субъективная реальность и мозг. Татьяна Черниговская. https://www.livelib.ru/author/669365/top/listview/biglist/~3
  1. Когнитивные исследования. Сборник научных трудов. Выпуск 5 Андрей Кибрик. https://www.livelib.ru/author/669365/top/listview/biglist/~3
  1. Как научить мозг учиться. Лекция Татьяна Черниговская. https://www.livelib.ru/author/669365/top/listview/biglist

Олег Олегович Гапотченко,
эксперт

 

 

Я ХОЧУ ВНЕСТИ ЛИЧНЫЙ ВКЛАД В БЕЗОПАСНОСТЬ ПОЛЕТОВ В РОССИИ!