С. Комаров. Плетение сети
Сергей Комаров,
кандидат физико-математических наук
«Химия и жизнь» №12, 2024
Ты помнишь, как всё начиналось?
Всё было впервые и вновь.
ВИА «Машина времени»
Нобелевскую премию по физике в 2024 году получили Джон Джозеф Хопфилд из Принстонского университета и Джеффри Эверест Хинтон из Университета Торонто за создание основ машинного обучения с помощью нейронных сетей.
Математика в комитете
Альфред Нобель не предусмотрел премии по математике; доходы от производства динамита и реализации других его изобретений идут на премии по физике, химии, биологи, литературе и на премию мира. С течением времени химия, правда, практически превратилась в биохимию, да и биология стала мало отличимой от нее. А вот физика долго держалась в неприкосновенности. Теперь и эта традиция пала: в 2024 году премию по физике получили чистые математики.
А чтобы как-то соблюсти приличия, Нобелевский комитет в своем пресс-релизе обширно разбросал ссылки: мол, в физике оно так же. И добавил в концовке — а еще результаты работы Хопфилда и Хинтона используют в физике, например, чтобы вытаскивать данные из огромных массивов измерений, полученных в ходе физических экспериментов.
Традиции разрушать нехорошо, но в данном случае оно того стоило. Ведь речь идет о создании нейронных сетей, тех самых, в которых обитает искусственный интеллект (ИИ). А куда нам теперь без ИИ? Кто покажет на навигаторе быстрейшую дорогу домой, пусть и через лес? Поставит диагноз пациенту, выпишет лекарство не хуже медика, пережившего реформу здравоохранения? Кто нарисует такую красивую картинку по словесному описанию, что и дизайнеру не снилась? Кто напишет реферат старшекласснику или студенту, научную статью аспиранту? Выдаст код программы для компьютера? Неужели как встарь, своими руками? Нет, будущее с ИИ уже наступило и обратной дороги нет, теперь только вперед, ко всепобеждающей Цифре. А в создании этого будущего непосредственное участие приняли и нынешние лауреаты. Вот как это было.
Нейрон Питтса — Мак-Каллока
Каким бы мощным ни был компьютер, он способен работать только по прямому назначению: совершать вычисления. То есть выполнять две операции: арифметическую — сложение и логическую — сравнение. Всё остальное — производное от этих операций. Стало быть, то, что нельзя вычислить, вычислителю неподвластно.
Это досадно, ведь хочется подкинуть ему немало человеческой работы, для чего нужно уметь не только вычислять, но и верно анализировать, распознавать образы, находить общности и выделять частности. Вычислитель для такой работы не очень предназначен. Да и человеческий мозг сам по себе тоже не очень. Он, конечно, обладает необходимой нервной «механикой», но содержимого, которое и дает человеку возможность задействовать эту механику для анализа, исходно в мозгу нет. Это содержимое формируется в процессе обучения, которое начинается еще при внутриутробном развитии и не заканчивается никогда.
А как устроена вся эта мозговая машина и как она обучается? Некоторое понимание начало приходить благодаря работе физиологов в конце XIX — начале ХХ века, например того же И. П. Павлова, лауреата Нобелевской премии по физиологии и медицине за 1904 год. Однако до построения более-менее реалистичных математических моделей работы мозга дело дошло только в 40-х годах ХХ века, и это было связано с работой Уолтера Питтса и Уоррена Мак-Каллока (подробнее об этом можно прочитать в статье С. В. Багоцкого «Математик, который придумал устройство мозга», «Химия и жизнь», 2023, №10). Основополагающей стала их статья «Логическое исчисление идей, относящихся к нервной активности», вышедшая в 1943 году.


Уолтер Питтс в возрасте 13 лет читает книгу Бертрана Рассела «Основания математики». Изображение сгенерировала нейросеть Artguru
Этому предшествовала такая история. Уолтер Питтс был несчастным вундеркиндом, поскольку его отец, детройтский водопроводчик, был крут, невоздержан в выпивке и постоянно распускал руки; мальчик в результате часто сбегал из дому и, понятно, толком не учился. В один из таких побегов он спрятался в библиотеке, где и провел неделю, зачитавшись книгой Бертрана Рассела и Альфреда Уайтхеда «Основания математики».
Книга так его восхитила, что Питтс написал письмо Расселу. Тот, в свою очередь, восхитившись юным гением, пригласил его в Чикаго, где читал лекции. У Питтса не было законченного школьного образования, и в университет он поступить не мог. Тем не менее в возрасте 15 лет он-таки получил небольшую стипендию и оказался в стенах Чикагского университета у приятеля Рассела — математика Рудольфа Карнапа. Тогда-то Питтс и заинтересовался вопросом: как формируется каждая из бесчисленных связей между нейронами мозга? Для него было очевидным, что человек рождается со случайным набором связей, а потом они как-то выстраиваются в систему, нужную для развития сознания и разума.
А в это время в Чикаго работал Уоррен Мак-Каллок, который профессионально занимался исследованиями мозга и хотел построить его логическую модель. Питтса познакомили с Мак-Каллоком, и он вскоре перебрался к последнему в дом, где оба ученых неделями изучали прохождение потоков сигналов по путям мозга. Порой поиски разгадки тайн мозговых нейронных сетей сопровождались обильными возлияниями виски. У Мак-Каллоков имелось поместье, где собирались шумные компании либеральной интеллигенции и велись интересные разговоры как на научные, так и на политические или философские темы; в этой-то обстановке и закладывались основы нынешнего искусственного интеллекта.


Уоррен Мак-Каллок, Уолтер Питтс и Норберт Винер обсуждают механику мозга. Изображение сгенерировала нейросеть Шедеврум
Часто в посиделках участвовал и будущий создатель кибернетики Норберт Винер. Он-то и предложил Питтсу в 1943 году переехать в Бостон, в Массачусетский технологический институт, и заняться математическим моделированием мозга. А вскоре туда переехал и Мак-Каллок. В их совместной работе появилось то, что сейчас называют нейроном Питтса — Мак-Каллока: первая математическая модель этой главной клетки мозга
Принцип работы нейрона Мак-Каллок и Питтс сформулировали таким образом: нейрон x срабатывает на шаге t, если соблюдаются два условия: 1) нет ни одного нейрона, связанного с нейроном x ингибирующей связью, сработавшего на шаге t − 1, и 2) число нейронов, связанных с нейроном x возбуждающей связью и сработавших на шаге t − 1, больше θ. В переводе с математического: если на нейрон поступит критическое количество сигналов от соседних нейронов, то он сработает: сформирует свой сигнал и отправит его к связанным с ним нейронам. В конце концов получающаяся лавина сигналов достигает исполнительного модуля, и тот совершит какое-то действие.
Поскольку нейрофизиологи утверждали, что передача информации между нейронами идет короткими электрическими импульсами, спайками, Питтс и Мак-Каллок считали мозг цифровой нейронной машиной, которая оперирует нулями и единицами, поэтому сигнал, выходящий из нейрона, был равен либо нулю, то есть отсутствовал, либо единице.
Крыса Минского
К сожалению, создание первой математической модели нейрона и схемы базирующейся на ней нейронной сети оказалось вершиной творчества тандема; вскоре случилась ссора с Винером, Питтса преследовали творческие неудачи. Например, он взялся решать, казалось бы, простейшую задачу — как лягушка преобразует зрительную информацию. Всё было очевидно: глаз фиксирует картинку, она передается нейронам мозга, те ее анализируют, находят сходство со своим опытом и далее следует удар языка по зазевавшейся мошке. Но не тут-то было: глаз без всяких нейронов как-то обрабатывал картинку, передавая нейронам мозга какой-то темный полуфабрикат, что запутывало всю картину. В безуспешных попытках формализовать эту схему Питтс крепко запил и в 1969 году умер, Мак-Каллок пережил коллегу на насколько месяцев.
Тем временем, в 1949 году, вышла работа канадского нейрофизиолога Дональда Хебба, в которой он сформулировал то, что сейчас называют правилом Хебба. Это правило представляет собой процесс обучения как усиление связей между отдельным нейронами, то есть фактически дает ответ на давний вопрос Питтса: как случайные связи новорожденного мозга собираются в систему. Вот одна из формулировок правила Хебба: «Если аксон клетки А находится достаточно близко, чтобы возбуждать клетку B, и неоднократно или постоянно принимает участие в ее возбуждении, то наблюдается некоторый процесс роста или метаболических изменений в одной или обеих клетках, ведущий к увеличению эффективности А, как одной из клеток, возбуждающих В». То есть чем чаще один нейрон возбуждает другой, тем прочнее становится связь между ними. В математическом формализме это означало повышение веса нейрона или увеличение силы связи. Фактически правило Хебба позволяет свести процесс запоминания к усилению определенных связей между нейронами, а роль самого нейрона при этом сводится лишь к активации той или иной связи.


«Крысу Минского» разобрали на запчасти по завершении работы, но у его дочери сохранился один «нейрон». Любители истории техники на его основе попытались воспроизвести внешний вид эксперимента Минского. На фотографиях детали нейрона, получившийся макет, нейрон с механическим приводом для потенциометра
Эта идея пришлась математикам по душе, и они стали строить хеббовские сети. Например, в 1951 году дипломник Принстонского университета Марвин Минский вместе с Дином Эдмондсом и Джорджем Миллером собрали первую самообучающуюся электромеханическую машину SNARC. Она моделировала крысу, пытающуюся найти выход из лабиринта.
Мозг крысы состоял из 40 нейронов; в каждом по шесть радиоламп, конденсатор и потенциометр с приводом. Изначально мозг крысы был девственно пуст — вес всех нейронов одинаков, а сами нейроны случайно соединены друг с другом. Крыса бессистемно блуждала по лабиринту — ее положение отражала горящая лампочка на световой панели, элементы которой были связаны с нейронами. Когда крыса выбирала верное направление, ручка потенциометра поворачивалась, что повышало вес этого нейрона. В конце концов крыса обучалась находить правильную дорогу.
Из-за того что в схеме бывали сбои, порой появлялось две или три крысы. Минский мог часами следить за их движениями и наблюдать, как крысы помогают друг другу находить верный путь. На вопрос — а почему ты не использовал компьютер? — Минский отвечал, что он ничего в этих машинах не понимал. Да и компьютеров особенно не было: первый из них фон Нейман только-только собрал, используя всего одну тысячу транзисторов. Качественно недалеко от электромеханической крысы Минского с почти тремя сотнями радиоламп.
Перцептрон Розенблатта
Настоящий успех пришел к Фрэнку Розенблатту в 1957 году. Он собрал в Авиационной лаборатории Корнеллского университета то, что вошло в историю как перцептрон Розенблатта. Первый отчет по этому проекту так и назывался «Перцептрон: воспринимающий и распознающий автомат», что передает суть созданной машины.
Перцептрон состоял из трех слоев нейронов: сенсорного, ассоциативного и реагирующего. Нейроны первого слоя были связаны с нейронами второго, а нейроны второго — с нейронами третьего. Если в нейроне Питтса — Мак-Каллока значение сигнала (вес нейрона) могло равняться либо 0, либо 1, то у нейронов Розенблатта вес мог лежать в пределах от 0 до 1, что придало значительную гибкость всей системе. Были введены отрицательные веса — для тормозящих нейронов и даже придуман абсолютно тормозящий нейрон со значением веса, равным минус бесконечности. Веса нейронов первого слоя имели значения строго +1 и –1, их задавали при программировании перцептрона, а далее веса устанавливались сами собой в процессе обучения, реализуя правило Хебба. Важным достижением Розенблатта стало доказательство сходимости перцептрона: параметры, необходимые для решения задачи, обязательно будут найдены за конечное число шагов независимо от начальных условий, то есть заданных весов нейронов и последовательности обучающего материала.
Первый перцептрон был виртуальным: его сформировали в первой же вычислительной машине, и он успешно сумел различать круг, квадрат и треугольник. А в 1959 году Розенблатт собрал электромеханический перцептрон. Нейроном в нём служил потенциометр с моторчиком: моторчик сдвигал ручку управления потенциометром, изменяя его электрическое сопротивление, что означало изменение веса нейрона.
Машину назвали «Mark I Perceptron». Источником входных данных служила матрица из фотодиодов. На нее проецировали изображение, а Mark I, оказавшийся, по-сути, фотоперцептроном, должен был распознавать, что на нём изображено. Как оказалось, эту чисто механическую, не содержащую ни одного транзистора машину можно научить решать довольно сложные задачи.
Например, распознавать рукописные буквы и даже изображения танков на аэрофотоснимках. Правда, по отзывам посетителей лаборатории работала она ненадежно, да еще и громко гудела.


Фрэнк Розенблатт настраивает соноперцептрон для определения направления на позиции артиллерии. Изображение сгенерировала нейросеть Шедеврум
В 1967 году Розенблатт собрал соноперцептрон, который должен был распознавать звуки. Вообще ученый считал, что перцептрон может распознавать всё, что угодно. И, как показало будущее, был недалек от истины.
Есть мнение, что устройство перцептрона, в котором связаны только нейроны разных слоев, а не внутри слоя, Розенблатт позаимствовал из работ нейрофизиологов, изучавших зрение кошек. У этих животных сигнал от сетчатки идет только на первичную зрительную кору и уже оттуда переходит на другие области мозга. То есть Розенблатт сумел обойти задачу, погубившую Питтса. Конечно, подобная конструкция машины гораздо проще, чем при наличии связей еще и внутри слоев. Однако такая архитектура вызвала жесткую критику со стороны конкурирующей фирмы, а именно уже упоминавшегося Марвина Минского.
Он вместе с Сеймуром Пейпертом в 1969 году опубликовал целую книгу с критикой концепции Розенблатта, указывая, что его перцептрон принципиально не может решить некоторые задачи, например различить четное и нечетное число точек или схожие фигуры, состоящие из одной и двух линий. Пример второй задачи он даже поместил на обложке своей книги. Вообще-то и человек без подсказки не справится с этой задачей. Минский подметил и другие недостатки перцептронов, в частности неспособность решать сложные задачи и исправлять ошибки из-за принципиального несовершенства конструкции.


Обложки скандальной книги Марвина Минского и Сеймура Пейперта. Присмотревшись, можно заметить, что на обложке с округлыми спиралями сверху изображена одна спираль, а снизу их уже две, а на обложке с квадратными спиралями — наоборот. Тот, кто не видит, может воспользоваться карандашом и с его помощью проследить за устройством каждой из спиралей
Есть мнение, что разгромная книга поставила крест на работе Розенблатта, да и вообще на всей истории с нейронными сетями. Согласно альтернативной версии, причина была иная. После того как СССР в 1957 году запустил первый искусственный спутник, на американских ученых пролился золотой дождь, финансирование получали самые фантастические проекты. Однако в 1969 году задача «догнать и перегнать» была выполнена: американцы объявили о высадке на Луне. После этого началось резкое сокращение бюджета. В частности, особенно жестко обошлись с гражданскими работами, проводившимися на деньги военных, а Розенблатт получал финансирование именно от них, от Агентства перспективных военных исследований, DARPA. Его соноперцептрон сочли неперспективным, и ученому пришлось далее довольствоваться университетским жалованием. А в 1971 году он утонул, катаясь на лодке в Чесапикском заливе, хотя недоброжелатели утверждают — утопился с горя. По прошествии времени понятно, что с соноперцептроном Розенблатт просто обогнал свое время и эта работа имела прямое военное значение. Сейчас-то на линии фронта системы распознавания звуков популярны: они помогают определить направление на источник выстрела.
Интересно, что Фрэнк Розенблатт был выходцем из России: его отец, Фрэнк Фердинанд Розенблатт, участвовал в революционном движении, а позже, уже став гражданином США и представляя в России интересы американского комитета помощи евреям, более известного как «Джойнт», добивался от Колчака прекращения еврейских погромов.
Как бы то ни было, в 70-е годы наступил длительный перерыв в создании нейросетей, и новый этап связан с появлением на сцене нынешних нобелевских лауреатов.
Память Хопфилда
Джон Джозеф Хопфилд, сын Яна Юзефа Хмелевского, эмигрировавшего в США еще до Первой мировой войны с территории будущей Польши и прославившегося работами в области ультрафиолетовой спектроскопии, пошел было по стопам отца — занялся физикой твердого тела. Поначалу его интересовали коллективные возбуждения электронных облаков, приводящие к формированию квазичастиц — экситонов, поляритронов. Поляритронная модель диэлектрика даже получила его имя: диэлектрик Хопфилда. Затем он приложил руку к изучению магнетизма, проявил себя и в биохимии: изучал систему исправления ошибок при репликации ДНК.
А потом пришел к изучению феномена мозга и даже поучаствовал в создании концепции критического мозга. Согласно этой идее в большой системе нейронов, а мозг это и есть такая система, важную роль играют коллективные процессы. Из такой идеи коллективных возбуждений, явно почерпнутой в прошлом опыте занятий физикой твердого тела, и родилась нейросеть Хопфилда. Построена она следующим образом. Возьмем набор нейронов Питтса — Мак-Каллока и соберем из них однослойную, но многосвязную нейронную сеть, то есть такую, в которой каждый нейрон связан со всеми. В эту сеть загрузим шаблон, то есть придадим нейронам какие-то значения. А потом исходя из этих значений рассчитаем силы связей между нейронами; матрица этих сил будет, в полном соответствии с правилом Хебба, памятью нейросети. В принципе, в сеть Хопфилда можно одновременно загрузить несколько шаблонов, их число зависит от числа нейронов.
А теперь загрузим в сеть образ для анализа. Например, рукописный текст. Понятно, что, с одной стороны, все буквы в нём разные, но, с другой — в каждой есть что-то общее с другой такой же буквой и, значит, с тем образом этой буквы, что загружен в качестве шаблона. Сеть должна для каждой найти верный шаблон и так узнать — что это за буква. Для этого сеть Хопфилда начинает по очереди менять значения для каждого нейрона, а делает она это, использую ту память, те силы связи нейронов, что были получены при запоминании шаблонов алфавита. Так она перебирает по многу раз все нейроны, и в конце концов получается некая самосогласованная картинка, которая при последующих преобразованиях меняться уже не станет. И, о чудо, в ней проявился ранее введенный шаблон, хотя распознать его в начальном изображении было очень трудно, если вообще возможно.
Однако чуда тут нет: изменение состояния одного нейрона сказывается на состоянии всех остальных нейронов, то есть в сети Хопфилда идет коллективный процесс самосогласования; он отметает все ошибки и выделяет суть. Поэтому вместо чуда имеем точный математический расчет, предсказавший: всё так и должно было случиться; коллективный разум сети умеет справляться со всей дефективностью исходных данных.
Как нетрудно догадаться, сети Хопфилда оказались очень востребованы при решении задачи распознавания образов, а бонусом получилось, что их можно применять для оптимизации самых разных процессов со сложными наборами данных. Точнее, они очень быстро решают подобные задачи в отличие от других алгоритмов.
Случайность Хинтона
Второй нобелевский лауреат 2024 года, Джеффри Эверест Хинтон, происходит из семьи с глубокими научными корнями. Отец — известный британский энтомолог, прадед — математик, занимавшийся многомерными пространствами, а прапрапрадед и вовсе знаменитый Джордж Буль, создатель булевой алгебры, краеугольного камня всех компьютерных вычислений и вообще основ математической логики. Именно Хинтон проложил дорогу к тому, что сейчас называется глубоким обучением искусственного интеллекта. Для этого он объединил идеи Розенблатта и Хопфилда, ну и добавил свое.
Целью же было создание гибкого алгоритма, необходимого для решения задач, которые невозможно поставить четко, то есть применительно к нейронным сетям точно и однозначно описать силы связей между нейронами. К тому времени, а на дворе 1984 год, большинство специалистов по нейронным сетям было уверено, что такой гибкий алгоритм нельзя создать в принципе. В основе лежали соображения, известные еще со времени выхода скандальной книги Минского и Пейперта. Вот как об этих соображениях рассказывает сам Хинтон в своей основополагающей статье:
«Основным техническим камнем преткновения, который препятствовал распространению простых алгоритмов обучения на более сложные сети, было следующее: чтобы быть способной к интересным вычислениям, сеть должна содержать нелинейные элементы, которые напрямую не ограничены входными данными, и когда такая сеть работает неправильно, оказывается невозможным решить, какая из связей была ошибочной. Эта проблема и привела к исчезновению перцептронов. Теорема о сходимости перцептронов гарантирует, что при обучении можно получить веса для одного уровня устройств, принимающих решения. Однако это нельзя обобщить на разветвленные сети таких устройств, если в задаче напрямую не указано, как использовать все устройства в сети» (Cognitive Science 9, 147–169 (1985), A Learning Algorithm for Boltzmann Machines).
А вот Больцмановская машина, предложенная Джефри Хинтоном, Дэвидом Экли и Терренсом Сежновским в середине 80-х годов ХХ века, этого недостатка лишена. Как такая машина выглядит? Она представляет собой перцептрон Розенблатта, использующий принципы самосогласованной сети Хопфилда. То есть опять имеем несколько слоев нейронов, которые связаны как друг с другом внутри слоя, так и с нейронами соседних слоев. И при работе сети идет процесс самосогласования, формируется самосогласованное поле состояний нейронов и их связей.
Однако Больцмановская машина имеет одно отличие: конечное состояние нейрона при его изменении задано неточно. Оно определяется вероятностно по тем правилам, по которым строится распределение Больцмана. Благодаря этой неопределенности вышла та самая ситуация, о которой упоминал Минский — мы не знаем, какая связь барахлит, и вся работа идет насмарку. Только, строго говоря, в Больцмановской машине все связи барахлят, коль скоро всё в ней задано с некой долей вероятности. Как же она может работать?
Хинтон нашел выход, придумал так называемую процедуру «отжига». Тут опять взята аналогия из физики твердого тела. Физическая система при охлаждении может попасть как в состояние истинного равновесия, так и в метастабильное состояние; применительно к сети Хопфилда — распознать не тот шаблон. В физике выбор пути зависит от скорости охлаждения. Нагрев же до высокой температуры — отжиг — разрушает все состояния системы и дает ей шанс выбрать верный путь. Именно так, увеличивая неопределенность значения нейрона, в машине Хинтона можно отжечь систему, а затем, постепенно снижая эту неопределенность, то есть охлаждая, добиться верного распознавания. В общем, построенная на таких неочевидных основаниях Больцмановская машина Хинтона заработала. По крайней мере, так сказать, в тестовом режиме.
Довольно скоро выяснилось, что полная Больц-мановская машина, а в ней нейроны по принципу Хопфилда связаны каждый со всеми, требует слишком большого объема вычислений, и вычислительные мощности (на дворе 90-е годы, информационная революция и стремительное развитие вычислительной техники только начались), необходимые для решения каких-то реальных задач, мало кому доступны. Тогда Хинтон пошел на компромисс и сделал урезанную Больцмановскую машину: в ней, как и в перцептроне Розенблатта, связи внутри слоя нейронов отсутствуют, есть только связи между нейронами соседних слоев. Этот подход увенчался успехом — и время вычислений сократилось до разумного, и появилась перспектива увеличивать мощность и сложность машины за счет прибавления слоев при опять же разумном росте затрат на вычисления.
Для новой машины придумали эффективные алгоритмы обучения, а стремительное увеличение вычислительных мощностей дает возможность наращивать сложность. Теперь на основе базовых идей, вложенных в Больцмановскую машину, а это многослойность, самосогласованность, вовлекающая большие массы нейронов в коллективный процесс, и элемент случайности за счет вероятностного присвоения состояния нейронам, строятся современные системы искусственного интеллекта. А он уже проник во многие сферы деятельности цивилизации — от науки и техники до личной жизни человека.
Бомба ИИ


Джон Хопфилд и Джеффри Хинтон совместно строят из нескольких слоев нейронов Больцмановскую машину для распознавания рукописного текста. Слева — версия Artguru, справа — Шедеврума
Если присмотреться к приведенному перечню базовых идей Больцмановской машины, нетрудно заметить немалое сходство с тем, как принято описывать мозг человека. Наиболее значимы здесь коллективный процесс и элемент случайности. Не исключено, что это сходство, а также уже демонстрируемая мощь систем ИИ пугают создателей машины. В конце концов кому, как не им понимать, что же они сделали. Во всяком случае и Хопфилд, и Хинтон подписали небезызвестное письмо ученых, требующих приостановить работы с системами ИИ на определенном уровне сложности.
В самом деле, при жестко заданных межнейронных связях ИИ при любой сложности остается в рамках заложенного в него массива информации, он не может делать умозаключений вне своих обязанностей. Вероятностный же характер действий дает возможность выйти за пределы такого массива. А это уже способность разума: делать выводы и прогнозировать будущее на основе имеющихся данных. ИИ, обладающий такими способностями, может оказаться опасным. Не случайно Хопфилд сравнивает создание ИИ с открытием расщепления ядра урана: результаты этого открытия можно использовать как на благо людей в виде атомной энергетики, так и во вред — в виде ядерного оружия.