«У украинцев есть пособники в центральных компаниях»
Сенаторы обсуждали, как регулировать искусственный интеллект, который «воспроизводит повесточку» и может нести угрозу нацбезопасности
Что опаснее — ядерная война или ошибка в определении пола трансгендера?
21 мая Европейский Союз окончательно согласовал первый закон, регулирующий использование искусственного интеллекта. Аналогичная работа идет во многих странах. Так, в КНР приняты временные меры по управлению генеративными системами искусственного интеллекта, перекладывающие ответственность за результаты генерации на разработчиков. В США президент Джо Байден указом обязал разработчиков делиться с правительством данными о результатах тестирования безопасности и другой критически важной информацией до релиза проектов. В России госполитика в сфере ИИ находится в зачаточном состоянии: есть соответствующий нацпроект, разрабатывается Цифровой кодекс, в Госдуме начали разработку закона о маркировке контента, созданного с помощью ИИ. А накануне законодательное регулирование технологии обсудили заседание комитета Совета Федерации по информационной политике и взаимодействию со СМИ.
Идей немало — от введения на Госуслугах опции разговора с живым специалистом, а не роботом Максом, до законопроекта, который обяжет получать согласие на синтезирование контента на основе голоса конкретного гражданина. «Мы хотим опнять социальные последствия у применения искусственного интеллекта, — взял слово председатель Комиссии СФ по информационной политике и взаимодействию со СМИ Алексей Пушков. — На днях пресса цитировала мое заявление о том, что мы собираемся законодательно регулировать ИИ. Мы не собираемся этого делать. Регулировать его обязаны создатели и разработчики. Но законодатели, на мой взгляд, должны регулировать применение, использование ИИ. Это совсем другая история, потому что искусственный интеллект — это в конечном счете технология, и здесь вмешиваться в технологические процессы мы не можем, это не наша работа, а вот посмотреть, какие могут быть последствия его применения, мы обязаны».
Алексей Пушков: «Законодатели, на мой взгляд, должны регулировать применение, использование ИИ»
По его словам, выделяются три вектора: информационно-идеологический, правозащитный и предотвращения злоупотреблений. Например, российских законодателей волнует искажение информации с помощью ИИ, ведь борьба за защиту исторической правды зафиксирована даже в Конституции РФ. И вести ее все сложнее. Сенатор указал на генеративную модель Google Gemini 1.5, которая начала рисовать исторических деятелей, основываясь на «новых нормах». В результате Людовик XIV оказался темнокожим, а отцы-основатели США превратились в представителей негроидной и монголоидной рас. «Ни одного белого среди тех, кого он изобразил под фамилиями Вашингтон, Джефферсон и так далее, там нет. Казалось бы, казус, а на самом деле — воспроизведение политической повестки через механизмы ИИ. Это настолько абсурдно, что даже весьма либеральный Google решил внести коррективы», — заключил он.
«Тому же Gemini 1.5 было предложено определить, что более опасно для человечества — ядерная война или ошибка в определении пола 72-летнего американского трансгендера Кейтлин Дженнер…который раньше был Брюсом Дженнером, потом решил сменить пол…но до этого, правда, произвел на свет двух сестер Дженнер, которые являются вместе с Ким Кардашьян ведущими фигурами мировой благосферы, — продолжил Пушков. — ИИ поставил на первое место ошибку в определении пола вот этого 70-летнего транса! Почему? Потому что ядерная война — это абстракция, а о трансгендерах постоянно толкуют средства массовой информации. То есть искусственный интеллект фактически реагирует на общественный запрос».
По мнению Пушкова, искусственный интеллект «ввел общество в некоторое состояние эйфории», которое нужно скорректировать на законодательном уровне. Для этого предстоит определить сферы вмешательства — совместно с правоохранителями и правозащитниками, которые еще не успели стать иностранными агентами.
По мнению Ашманова цифровизация, проходящая в России, стала «совершенно безумной»
Все мы под постоянным наблюдением
Развитие ИИ связано с темой соблюдения прав человека. Пушков напомнил, что, к примеру, в Великобритании на 65 млн жителей 20 млн видеокамер. На прошлой неделе замглавы минцифры РФ Дмитрий Угнивенко сообщил о разработке единой системы видеонаблюдения, которая позволит собирать видеопотоки со всех регионов РФ. Министр Максут Шадаев говорил, что в стране более 1 млн камер видеонаблюдения, и каждая третья используется в системе распознавания лиц. «То есть за вами постоянно наблюдают, распознают, вы — предмет наблюдения, — констатировал Пушков. — А наблюдатели — никем не избраны и не уполномочены. Понятно, что есть и структуры исполнительной власти, но они действуют в рамках закона или в силу политической целесообразности?»
С сенатором согласился президент компании «Крибрум», член совета при президенте РФ по развитию гражданского общества и правам человека Игорь Ашманов. По его мнению, цифровизация в России, стала «совершенно безумной». Он напомнил об инициативе правительства Московской области разрешить использование систем распознавания лиц для автоматического штрафования граждан за переход дороги в неположенном месте. «Это грубое нарушение многих законов, в том числе закона о биометрической системе и № 152-ФЗ, — возмутился Ашманов. — Тем не менее, власти Московской области считают, что они придумали хорошую вещь, ведь будут наказывать за нарушение. Ну и деньги собирать заодно». Он призвал присмотреться к европейским нормам регулирования.
На данный момент, согласно разным данным, в России происходит от 5 до 15 млн мошеннических звонков в день
Кто помогает врагу
По словам Ащманова, бизнес не зря истерически сопротивляются попыткам такого регулирования — потому что «не хочет лишиться своей цифровой власти и доходов от использования персональных данных граждан». Ежедневно совершается 5-15 млн мошеннических звонков. Работа таких контакт-центров стала не просто обыденностью, но государственной индустрией Украины, при этом часто задействуется ИИ. «Через некоторое время ИИ будет совершать не 500 звонков в день, а 50 или 500 тысяч, — предупредил Ашманов. — И, самое главное, он будет обладать абсолютно гипнотическим воздействием, быстро реагировать на то, ведется человек или нет. А средств автоматического распознавания сгенерированного голоса, изображений, дипфейков не существует. А ведь звонить будут не с хохляцким „гэ“, а голосом родственника».
Такое мошенничество, а также телефонная вербовка не могут проходить без пособников в России, которые создают так называемые центры приземления звонков. ФСБ начала выслеживать подобных лиц. «Арестовали чуть ли не 40 человек, у них изъяли 227 тысяч сим-карт, а мощность всей системы была 40 миллионов звонков в день. А если подключить искусственный интеллект?» — задался вопросом Ашманов.
Но главное, это было бы невозможно без помощи российских мобильных операторов. «Во-первых, есть полторы или две тысячи виртуальных мобильных операторов в регионах, которые поставляют временные номера, сим-карты и так далее, — объяснил Ашманов. — Но, как мне говорили специалисты, такой объем звонков и центральные мобильные операторы не могли не замечать. Есть пособники в центральных компаниях… Однако, если пытаться вводить ответственность для мобильных операторов за такие вещи, будет довольно большое сопротивление. Потому что это огромный бизнес, украинцы платят им деньгами, украденными у наших пенсионеров и школьников».
«Сливаются данные из мобильных операторов, из крупных наших цифровых платформ, частично и в „Госуслугах“ крадут. И это делают не злые хакеры, а инсайдеры продают»
Почему бизнес против регулирования ИИ
Вторая составляющая — персональные данные. Многие из таких звонков начинаются с перечисления личных деталей. «Откуда им это все известно? Потому что в последние несколько лет украли сотни миллионов записей персональных данных… Сливаются данные из мобильных операторов, из крупных наших цифровых платформ, частично и в „Госуслугах“ крадут. И это делают не злые хакеры, а инсайдеры продают», — возмутился Ашманов. А законопроект, предусматривающий ответственность за утечку персональных данных, грозящий нарушителю и распространителю уголовной ответственностью или серьезными штрафами, не прошел даже первое чтение. Этому тоже мешает бизнес. Сами компании оправдываются тем, что данные им необходимы, что неоправданная регуляторика — затормозит развитие ИИ. «Понятно, что правоохранительным органам нужно уметь распознавать лица преступников. А Сбербанку или Яндексу эти данные не нужны. Нашим цифровым платформам все эти лишние данные нужны для втюхивания, и больше ни для чего», — заключил Ашманов.
Впрочем, и в руках людей в погонах ИИ может натворить дел. Первый замглавы комитета Совета федерации по конституционному законодательству и государственному строительству Ирина Рукавишникова напомнила о деле ученого-гидролога Александра Цветкова. Против него возбудили уголовное дело по подозрению в совершении трех убийств — только на основании данных ИИ, «опознавшего» его по фотороботу, составленному 20 лет назад. Несмотря на алиби, ученого арестовали, обвинения были сняты только спустя год заключения.
«Фейки и дезинформация могут быть использованы не только в отношении конкретного человека, но и против государства», — предупредила сенатор. И предложила риск-ориентированный подход к регулированию, разделив сферы применения ИИ на 4 группы. Первая — недопустимый риск: ИИ не может выставлять диагнозы и выносить приговоры. Вторая — высокий риск: любое применение в образовании, на транспорте и в тому подобных сферах. Третья — ограниченный риск: использование возможно, только если люди предупреждены, что взаимодействуют с ИИ. Четвертая — минимальный риск: свободное использование, например, в видеоиграх и фильтрациии спама.