«…И к 2030 году все поймут, что мы великая айтишная держава»: почему российские академики опасаются ИИ?
Сергей Рыбаков: «10 лет назад лучшие системы искусственного интеллекта в мире не могли классифицировать объекты на человеческом уровне. <…> Сегодня они по стандартным критериям регулярно превосходят человеческие возможности»
«ИИ регулярно превосходит человеческие возможности»
«10 лет назад лучшие системы искусственного интеллекта в мире не могли классифицировать объекты на человеческом уровне. <…> Сегодня они по стандартным критериям регулярно превосходят человеческие возможности», — открывал накануне заседание дискуссионного клуба Ecumene его программный директор Сергей Рыбаков. Для разговора о будущем стремительно развивающейся технологии он собрал ведущих российских академиков, представителей бизнеса и власти. И на фоне новостей о колоссальных инвестициях в ИИ, которые почти ежедневно поступают от мировых гигантов, тезисы, озвученные спикерами, обрисовали расклад сил довольно отрезвляюще.
Тон задал замглавы минцифры РФ, президент Академии криптографии РФ Александр Шойтов. По его словам, если в течение 5 лет в России не внедрить большинство технологий вроде интернета вещей, сетей 5G и 6G, искусственный интеллект и прочее, то страна сильно отстанет в мировом масштабе. Но сделать это не так-то просто. Первая сложность — санкции, которые отрезали страну от поставок и взаимодействия с научным сообществом. Вторая — отсутствие собственной электронной компонентной базы. «К сожалению, этого у нас нет, и создавать это крайне сложно и в стране, и кооперации с нашими дружественными странами», — признал он.
А в случае с искусственным интеллектом есть еще один нюанс — это вопросы доверия (надежно ли функционирует ИИ) и информационной безопасности. Шойтов убежден, что конкретные риски должны быть определены по стандартной схеме в кибербезе, но по самой сложной модели. Например, если ИИ управляет ядерным реактором, с помощью которого обрабатываются данные, содержащие гостайну, и в этом реакторе есть внутренний нарушитель, а сами атаки осуществляют иностранные спецслужбы.
«В Кодексе этики искусственного интеллекта прямо прописано — мы будем обеспечивать информационную безопасность самыми современными средствам. И в то же время есть пять видов известных атак на искусственный интеллект! Никто из тех, кто присоединился к [кодексу], к сожалению, не реализовал методы противодействия этим атакам. Я не знаю ни одного», — констатировал замглавы минцифры РФ.
Александр Сергеев попытался объяснить, как через благо, которое несет научно-технический прогресс автоматически появляется зло. По его словам, развитие искусственного интеллекта похоже по своему объему влияния и по последствиям на атомный проект
ИИ — новый атомный проект, а кумир создателя Сhat GPT — Оппенгеймер
Научный руководитель Национального центра физики и математики, академик РАН Александр Сергеев пошел еще дальше и попытался объяснить, как через благо, которое несет научно-технический прогресс автоматически появляется зло. По его словам, развитие искусственного интеллекта похоже по своему объему влияния и по последствиям на атомный проект. «Здесь очень интересно привести пример Сэма Альтмана, создателя и директора Open AI, который считает Роберта Оппенгеймера, руководителя Манхэттенского проекта, своим идеалом, кумиром. Что интересно — они родились в один и тот же день — 22 апреля. В тот же день родился Владимир Ильич Ленин. Вот такой очень интересный день есть у нас в году», — рассказал Сергеев.
Одно из основных применений искусственного интеллекта — цифровые двойники, которые должны отличаться предиктивностью, считает ученый. И даже в этом вопросе пример снова нашли из атомной отрасли. «Одна из важнейших задач атомной отрасли — сделать цифровой двойник атомной станции. То есть не просто систему, которая описывает, что сейчас происходит с подсистемами, с теплопередачей, с генератором электричества, а [работает] предиктивно. То есть алгоритм подсказывает оператору атомной станции, как дальше будет вести себя система и помогает ему в случае возникновения сложных ситуаций быстро их купировать. Если это будет сделано в атомной отрасли, это [будет] грандиознейший прогресс. И это одна из задач над которой сейчас работает „Росатом“. Если нам удастся смоделировать управление атомными станциями, то в других гораздо более простых ситуациях, конечно, мы с этим справимся».
Чем более доверенным становится искусственный интеллект, чем больше люди опираются на него в плане принятия решений, опасается Сергеев. «Если он начинает за нас принимать решения, точнее и лучше, чем мы сами, мы говорим: „ну супер, пускай он принимает решения“. А мы передадим ему все наши персональные данные, потому что он дает нам великолепные советы. <.> К сожалению человеческая натура такова, что большинство с этим согласится. Передача принятия решений искусственному интеллекту — это грандиозное изменение человеческой сущности, устройства человеческого общества. И чем более доверенный интеллект создают, тем это опаснее для общества, потому что мы сознательно, с огромным удовольствием отдаем в руки ИИ принятие решений», — считает он.
Еще академика беспокоит развитие общества постправды, к которому ведет ИИ, и сохранность персональных данных. «Это три основные угрозы, которые несет неизбежное развитие искусственного интеллекта, и к решению которых нам надо быть готовым, ведь общество через 10-15 лет будет совсем другим», — резюмировал он.
Языковая модель ChatGPT включает в себя более 170 млрд варьируемых параметров и была обучена на более чем 400 гигабайтов обучающих текстов, напомнил сопредседатель научных направлений Национального центра физики и математики, академик РАН Игорь Каляев
Российский ответ суперкомпьютерам
Языковая модель ChatGPT включает в себя более 170 млрд варьируемых параметров и была обучена на более чем 400 гигабайтов обучающих текстов, напомнил сопредседатель научных направлений Национального центра физики и математики, академик РАН Игорь Каляев: «Для сравнения: все произведения Шекспира весят всего 5,5 мегабайт. И если вы будете читать по одной странице текста в минуту, 24 часа в сутки, для того, чтобы повысить свой уровень до ChatGPT вам нужно 400 лет», — привел наглядный пример он.
«Наши попытки создания ИИ, который заменил бы наш мозг с помощью стандартных компьютерных технологий, с моей точки зрения — это путь в никуда», — продолжил академик. Кроме этого обеспечить эффективное использование больших суперкомпьютеров крайне сложно, по его словам, человеческий мозг «уже с этим не справляется». А вот искусственный интеллект помочь может.
В качестве отечественной альтернативы в НЦФМ развивают в том числе нейроморфные вычислительные системы, — они функционируют по принципам, присущим мозгу человека. Работают они на базе мемристоров — нового типа проводников с эффектом памяти: сопротивление которого меняется в зависимости от того, какое действие с ним проводили до этого. «Чем больше вы через него пропускаете электрического заряда, тем у него более меняется его сопротивление. И это свойство напоминает свойство нейронов человека, в частности синапсов», — объяснял Каляев, подчеркивая, что эти системы не требуют высоких микроэлектронных технологий. «Не нужно [достигать топологии чипов] 7 или 10 нанометров. Те микроэлектронные технологии, которые есть у нас в стране, позволяют нам такую элементную базу создавать», — рассказал ученый.
Арутюн Аветисян: «Мы не стремимся в ближайшие сроки создать технологии, как у NVIDIA, нам важнее обеспечить безопасность данных с репозиторием доверенных решений, в которых аккумулируются знания ученых из дружественных стран»
»…и к 2030 году все поймут, что мы великая айтишная держава»
Кроме технологической составляющей, есть и гуманитарная, указал директор Института системного программирования им. В. П. Иванникова академик РАН Арутюн Аветисян. В качестве иллюстрации он привел историю с одним гонгонгкским банкиром, которого в феврале этого года вызвали на «встречу в формате ВКС с головным офисом». Но видео псевдо-ВКС было сгенерировано искусственным интеллектом, и в результате банкир перевел мошенникам 25 млн долларов.
Это только одна из причин, по которой многие страны стремятся зарегулировать работу ИИ. Например, в США было подписано соглашение, в рамках которого американские техногиганты разработают и внедрят систему водяных знаков для визуального и аудио контента. Фактически это означает криминализацию ИИ, указал он. В России помочь обеспечить безопасность может помочь репозиторий проверенного искусственного интеллекта.
«Мы не стремимся в ближайшие сроки создать технологии, как у NVIDIA, нам важнее обеспечить безопасность данных с репозиторием доверенных решений, в которых аккумулируются знания ученых из дружественных стран. Все будет хорошо. И к 2030 году все поймут, что мы великая айтишная держава», — психотерапевтически заверил академик Аветисян.
Под занавенс внезапно всплыла новость, касающаяся Татарстан. В декларации, которую страны БРИКС примут по итогам 16-го саммита в Казани, собираются отразить вопросы, связанные с искусственным интеллектом, сообщил Рыбаков.
«Я бы хотел сказать спасибо МГИМО, что поддержали нас в рамках декларации казанской БРИКС, подготовили вопросы и связанные с искусственным интеллектом, которые уже можно было включить в эту декларацию. Потому что, к нашему удивлению, в рамках предыдущей декларации стран БРИКС слова „искусственный интеллект“ не были упомянуты ни разу. И мы надеемся, что сейчас в рамках казанской декларации это определение, наконец, туда войдет», — заключил он.