В Госдуме рассказали, в каких сферах могут ограничить применение искусственного интеллекта
Излишняя цифровизация, отсутствие контроля за развитием технологий искусственного интеллекта (ИИ) могут нести опасность и вред, считает председатель Госдумы Вячеслав Володин. Депутаты в осеннюю сессию 2025 года планируют обсудить регулирование ИИ, в первую очередь с точки зрения безопасности для россиян. Компьютерный разум уже используют в медицине, девять из десяти студентов с его помощью учатся и даже судьям ИИ упрощает жизнь. При этом законодательно эта сфера практически не урегулирована. «Парламентская газета» узнала, когда могут появиться первые законы об ИИ и какие ограничения его ждут.
Скрытые угрозы
Искусственный интеллект сегодня — и друг, и личный психолог, и помощник в любых делах, который, как считают обращающиеся к нему люди, не обманет, не предаст.
Все чаще из СМИ становится известно о случаях, когда искусственный интеллект вместо помощи людям, оказавшимся в сложной ситуации, предлагает им решения совершенно иного плана, обратил внимание Вячеслав Володин.
«Это, к сожалению, стало приводить к печальным последствиям, — написал он в соцсети. — Несколько громких эпизодов произошли в США и связаны с одной конкретной нейросетью. Теперь разработчики, чтобы исправить ситуацию, планируют интегрировать в нее функцию родительского контроля, возможность добавить в чат-бот контакт доверенного лица и прямой вызов экстренных служб».
Излишняя цифровизация и отсутствие контроля могут нести опасность и вред, отметил Володин. ИИ, по его мнению, не бывает полностью объективен и может содержать скрытые угрозы. В ноябре Госдума планирует обсудить вопрос внедрения технологий ИИ и цифровизации, анонсировал спикер.
«Отдельное внимание и контроль — безопасности и защите граждан от негативных последствий использования нейросетей», — заключил Вячеслав Володин.

ИИ — не учитель
В России столь драматичных историй, связанных с ИИ, пока не было. Но и дожидаться их не стоит, уверены парламентарии. Искусственный интеллект всего единожды упоминается в действующем у нас законодательстве — в законе об экспериментальном правовом режиме (ЭПР) в Москве. Описательной части в сфере ИИ у нас недостает, уверен первый зампред Комитета Госдумы по информационной политике, информтехнологиям и связи Андрей Свинцов. Ее создание — вопрос ближайшего будущего.
«ИИ применяют все, в том числе мошенники для обмана наших граждан, — сказал «Парламентской газете» депутат. — Мы этот вопрос обязательно будем рассматривать с точки зрения обеспечения безопасности. Технологии нужно ставить на службу обществу».
Одна из сфер, в которой ИИ уже в полной мере обосновался, — образование. Девять из десяти студентов ведущих вузов используют для обучения нейросети, показало свежее исследование Высшей школы экономики. С их помощью можно за ночь написать курсовую работу, которую не распознает ни один антиплагиат.
ИИ в корне меняет ландшафт образовательной деятельности, обратил внимание глава Комитета Госдумы по международным делам Леонид Слуцкий.
«Не зря Вячеслав Володин ставит вопрос об отмене домашних заданий, — сказал нашему изданию депутат. — Инструмент, которым педагоги пользовались веками, практически перестал работать. Нужны новые подходы и широкая общественная дискуссия по проблеме».
Лечит — врач, судит — судья
Правовое регулирование необходимо, но оно должно быть таким, чтобы не затормозить развитие ИИ в России, чтобы мы не отстали от мировых лидеров, отметил первый зампред Комитета Совета Федерации по конституционному законодательству и госстроительству Артем Шейкин. В Совете по развитию цифровой экономики при Совфеде он курирует секцию «Искусственный интеллект», на каждом заседании которой, какой бы теме оно ни было посвящено, звучит одно и то же: главное — безопасность, за всеми решениями ИИ должен стоять человек.
ИИ за считанные секунды анализирует результаты исследования организма человека, но диагноз всегда ставит врач, он же назначает лечение, говорит сенатор Шейкин. То же — в судах. В Амурской области, которую он представляет в Совфеде, ИИ используют в судопроизводстве по делам об административных правонарушениях. Специальная программа выделяет ключевую информацию из протоколов и заполняет поля в автоматизированной системе. Но решение выносит судья-человек.
«Поэтому правильнее говорить не об ограничениях, а о контроле и ответственности», — заключил Артем Шейкин.
Суверенный разум
Генеративный ИИ, то есть именно тот, с которым общаются россияне, может быть опасен, если не знать, на какой информации его обучили, объяснила «Парламентской газете» член экспертно-консультативного совета при Комитете Совфеда по конституционному законодательству и госстроительству Анна Смирнова.

«Никто не даст гарантии, что информация, которую вам сгенерировал ИИ, — это правда, если вы не знаете, что у него под капотом, — сказала она. — Поэтому безопасным может быть только наш суверенный продукт. Нужны регулирующие требования на государственном уровне».
Одна из главных проблем, которую генеративный ИИ создает человечеству уже сейчас, — дипфейки, уверена руководитель центра компетенций «Цифровая экономика» Надежда Сурова. Подделать что угодно и кого угодно можно не то что за считанные секунды, но в реальном времени.
«Поэтому важнейший вопрос сегодня — маркировка искусственного контента, — сказала «Парламентской газете» эксперт. — Вокруг этой темы много дискуссий, но я думаю, что и законодательные решения не за горами».