Неверовский: вызовы использования ИИ требуют дополнительного изучения со стороны ученых

Многие эксперты уже сегодня обращают внимание на стремительное развитие искусственного интеллекта. Технология стала доступна для широкой аудитории слишком быстро и активно внедряется в различные сферы экономики. При этом законодательство, способное ее полноценно регулировать, все еще отсутствует. Это ставит мир на порог новых вызовов.
Александр Неверовский.

Как отметил в ходе научно-практического семинара по развитию искусственного интеллекта в Беларуси заместитель Государственного секретаря Совета Безопасности Александр Неверовский, в мире наблюдается лавинообразное развитие ИИ. Причем это происходит в сочетании с недостатком действенных инструментов эффективного организационного и нормативно-правового регулирования в данной сфере.

— Об этом неоднократно заявлял Глава государства. В частности, на саммите ОДКБ в Астане в 2024 году он выразил обеспокоенность по поводу перспектив неконтролируемого использования возможностей искусственного интеллекта, который все чаще задействуют для планирования и решения задач. В связи с этим наш Президент призвал быть аккуратными в развитии ИИ, — отметил Александр Неверовский.

Он обратил внимание на то, что все более широкое распространение получает одна из основных угроз — искусственная монополизация мировыми лидерами рынка технологий ИИ и ограничение доступа к ним. Гонка технологий, теперь уже в области искусственного интеллекта, еще больше усиливает глобальное цифровое технологическое неравенство. 

— Несмотря на бесспорное преимущество и удобство применения, стремительное развитие искусственного интеллекта неизбежно породило ряд серьезных рисков, вызовов и угроз во всех без исключения сферах жизнедеятельности личности, общества и государства, — пояснил он. 

Часть связанных с ИИ вызовов уже известна правоохранительным органам, которые, несмотря на некоторые трудности, способны их выявлять и пресекать. 

— В то же время по мере опережающего развития технологий искусственного интеллекта все больше вопросов вызывают проблемы их распознавания. В первую очередь речь идет о фейках. При этом на фоне повсеместного внедрения искусственного интеллекта все чаще фиксируется избыточный сбор и незаконный оборот персональных данных. Определить достоверность и ценность информации становится сложнее. С помощью дипфейков и дезинформации, в том числе созданной нейросетями, можно достаточно эффективно манипулировать общественным мнением, провоцировать кризисы, подрывать доверие общества, — отметил заместитель Государственного секретаря Совета Безопасности.


Кроме того, по его словам, чрезмерная зависимость от искусственного интеллекта несет социальные риски: 

— Искусственный интеллект все активнее используется для анализа медицинских данных и постановки диагнозов. Однако есть опасность профессиональной деградации медиков, которые могут перестать принимать решения самостоятельно. Если говорить об использовании ИИ в образовании, то действительно можно ускорить процесс поиска информации, анализа данных, формулирования текста. Но существует опасность снижения навыков критического мышления, потери индивидуальности, творческого подхода обучаемого, если он полностью полагается на автоматизированные системы.

Александр Неверовский подчеркнул, что данные вопросы требуют дополнительного исследования со стороны ученых из различных областей знаний. Не только IТ-специалистов, но и экспертов в социологии, политологии, криминологии, юриспруденции и других сферах.
Алексей Баньковский.

В свою очередь начальник информационно-аналитического управления Государственного секретариата Совета Безопасности Алексей Баньковский выразил мнение, что сегодня на рынке продуктов, которые используют технологию глубокого искусственного интеллекта, не очень много. 

— В то же время говорить о том, что прогресса в этой области нет, — грубейшая ошибка, — заметил он и напомнил, что чат-бот ChatGPT-4 не так давно успешно справился с тестом Тьюринга, который разработан, чтобы определять способность компьютеров имитировать работу человеческого мозга.

— По этому поводу еще не утихают споры, но фактически сегодня отличить искусственный интеллект от человека становится достаточно сложно. Это одна из труднопрогнозируемых угроз современности, которые требуют детального анализа с использованием всего имеющегося научного инструментария, — отметил Алексей Баньковский.

Он обратил внимание, что сейчас тяжело спрогнозировать дальнейшее развитие технологий на основе ИИ, но уже сегодня имеются примеры вживления чипов, используются нано- и биотехнологии в данной сфере. 

— Актуальность достижения информационного суверенитета в сфере информационной безопасности только увеличивается, — резюмировал Алексей Баньковский.

kryzhevich@sb.by