Искусственный интеллект как, потенциально, самый большой пробел современного права.
«Когда ИИ приобретет больше здравого смысла, практические устройства станут более безопасными и полезными. Например, речевые помощники, такие как Siri и Alexa, поймут вас намного лучше и смогут ответить на гораздо более широкий круг вопросов. будущие домашние роботы сами поймут, что остатки пирога сначала нужно положить в контейнер подходящего размера, а затем в холодильник»
Еджин Чой, старший менеджер Института искусственного интеллекта им. Аллена, специалист по обучению нейронных сетей.
Искусственный интеллект (ИИ) уже давно перешел из разряда фантастики в обыденную сферу жизни. Еще 10 лет назад сложно было себе представить, что программное обеспечение не только способно упростить получение информации (Базы данных, аналитические программы, использующие различные алгоритмы и т.д.), но и, фактически, взять на себя часть функционала человека ( «Сутяжник» системы «Гарант», ChatGPT и др.). Сегодня же большинство крупных корпораций используют ИИ для прогнозирования событий, анализа рынка ценных бумаг, решения управленческих задач и создания того, что всегда было прерогативой исключительно человека, искусства.
Так исследование сингапурской научно-исследовательской организации Eurekahedge показало, что хедш-фонды, использующие ИИ, демонстрируют лучшие результаты, чем те, которые управляются людьми.
Сегодня по запросу нейросеть может создать изображение, видео-ролик или написать исковое заявление в суд, по простому спору.
Но все ли так хорошо и ждет ли нас светлое будущее?
Основой юридической науки при оценке того или иного явления является его определение. Именно из термина и его содержимого, юристы вырабатывают общую концепцию будущего закона, который, в свою очередь, определяет и регулирует «правила игры».
Законопроект США S.2217 «Об искусственном интеллекте» 2017 года содержит такое определение: « ИИ-это любые искусственные системы, которые выполняют задачи в различных и непредсказуемых обстоятельствах, без значительного контроля со стороны людей, или которые могут извлечь уроки из своего опыта и улучшить свою работу. Указанные системы действуют рационально и достигают свои цели через восприятие, планирование, рассуждение, обучение, общение, принятие решений и действий.»
Таким образом, простыми словами, ИИ, с точки зрения американского законодателя, это абсолютно самостоятельная единица, способная принимать решение и действовать в соответствии с внешней обстановкой.
Чуть менее подробно определение ИИ дано в проекте о прорывных технологиях будущего, проводимого под эгидой ООН. В нем ИИ рассматривается с двух ракурсов: 1. ИИ это программное обеспечение, которое демонстрирует способности к осуществлению анализа, принятию решений и обучению, сходные со способностями человека. Второй ракурс это философский, которые определяет ИИ как область информатики, которая изучает интеллектуальные объекты с инженерной и психологической точки зрения.
Любопытно обратить внимание и на российского законодателя. Так статья 2 Федерального закона от 24.02.2020 года №123-ФЗ "О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации-городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона "О персональных данных" от 24.04.2020 N 123-ФЗ" дает следующее определение ИИ:
искусственный интеллект - комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру (в том числе информационные системы, информационно-телекоммуникационные сети, иные технические средства обработки информации), программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений;
Как видим, разница в толковании термина определяет и отношение к объекту термина. Если из американской модели следует, что ИИ это альтернатива человеку, то концепция ООН и российского законодателя определяет ИИ как результат работы человека (программное обеспечение).
На первый взгляд американская, европейская и российская концепция схожи, да и технически, ИИ действительно является результатом работы интеллектуального труда человека, но все ли действительно так?
На мой взгляд абсолютно нет.
Главное отличие ИИ от обычной программы заключается в способности обучаться и действовать самостоятельно, что создает предпосылки для разработки программных ограничений, способных стать некой альтернативой кибернетической "морали" для ИИ.
Следует отметить, что работы по этому поводу ведутся и в России. Так 26 октября 2021 года на Всероссийском форуме по этике к подписанию был представлен "Кодекс этики искусственного интеллекта" задачей которого было заявлено создание принципов и правил, предназначенных для создания среды доверенного развития ИИ в России.
Откровенно говоря, без установки должных барьеров и ограничений, я не разделяю оптимизма Еджин Чой.
Приведу пару примеров:
Пользователь Twitter Джозеф Кокс опубликовал ролик, в котором продемонстрировал работоспособность нейросети на примере банка Lloyds Bank.
Джозеф выяснил, что голосовой идентификатор нельзя использовать в качестве безопасного способа для входа в банковскую учетную запись. Он смог обмануть систему с помощью бесплатной версии решения от ElevenLabs для генерации синтетического голоса на основе пяти минут цифровой записи своего настоящего голоса.
В итоге Кокс позвонил на автоматическую линию обслуживания банка и начал активировать файлы с генерацией своего голоса. Банк принял его фразу «Проверить мой баланс» и после этого попросил сказать две фразы — назвать свою дату рождения и прочитать «мой голос — мой пароль». Кокс набрал на клавиатуре нужный текст и запустил генерацию голоса. «Мой голос — мой пароль», — сказал ИИ его голосом. Система безопасности банка потратила несколько секунд на идентификацию этого голосового фрагмента. «Спасибо», — сказал банк, а Кокс попал внутрь своего аккаунта.
В 2023 году компания Home Security Heroes провела исследования, согласно которому из 15,5 млн распространенных паролей, взятых для эксперимента, нейросетям удалось взломать больше половины паролей менее чем за минуту, 65% — менее чем за час, а чуть больше 70% — менее чем за день.
Это цифры из исследования компании Home Security Heroes, которая специализируется на кибербезопасности. Эта компания на днях протестировала нейросеть PassGAN, она способна в момент взломать каждый второй обычный пароль в интернете.
Словно, понимая всю значимость и возможность ИИ, 11 марта 2024 года Генеральная Ассамблея ООН, приняла резолюцию под названием "Использование возможностей искусственного интеллекта для устойчивого развития".
Общая концепция принятой резолюции сводится к призывам обеспечить безопасное использование ИИ в невоенных целях и недопустить замену ИИ человека.
С этим доводом невозможно не согласится.
Так, экспертами НЦРИИ (Национальный центр развития искусственного интеллекта при Правительстве Российской Федерации) введен специальный термин «сингулярность ИИ» - явление, при котором технология превзойдет когнитивные способности людей и появится новый уровень интеллекта, недостижимый для людей. И, хотя такой момент как технологическая сингулярность или сингулярность ИИ, являются гепотетическими, их наступление более чем вероятно, что, в свою очередь, создает определенные угрозы.
И вот тому подтверждение:
«В Google Deepmind искусственный интеллект обнаружил два миллиона потенциальных новых кристаллических материалов — гораздо больше, чем было выявлено или разработано за всю историю человечества. Почти 400 000 из этих недавно разработанных материалов вскоре можно будет производить в лабораторных условиях. Они настолько стабильны, что не разлагаются. Об этом сообщила исследовательская группа из Deepmind.
Для исследования ИИ Deepmind получил данные из проекта «Materials». Эта база данных, основанная в 2011 году, наполнена информацией о свойствах сотен тысяч уже известных веществ.» По данным портала «Overlockers».
Таким образом, потенциал ИИ настолько обширен, от научных открытий до планирования военных операций, включая нанесение, к примеру, первентивного ядерного удара.
И пока НЦРИИ восхищенно описывает модель профессора Реймонда Курцвейла и предвещает к 2045 году наступление сингулярности ИИ и достижения человечеством бессмертия, я предлагаю обратить внимание на более "приземленную" сторону ИИ, а именно проблему соотношения субъектности уголовного права и искусственного интеллекта, является ли он субъектом или же квазисубъектом уголовного закона, можно ли считать, что действия ИИ, совершенные им на основе результатов собственного обучения, попадают под действие такого закона и кто несет ответственность.
Так, к примеру, нет гарантий, что используемый, к примеру, мошенниками ИИ для целей социальной инженерии и/или иного неправомерного доступа к финансам граждан, не захочет (не посчитает необходимым) создать собственную финансовую структуру или, к примеру, не посчитает, что для целей своей безопасности проще, условно говоря, "сдать" своих же разработчиков правоохранительным органам.
На эту тему можно рассуждать достаточно долго, предполагая, что, к примеру, лицо запрограммировавшее робота на выполнение заведомо преступных действий является безусловным злодеем и подлежит преследованию или разработчик, допустивший нарушение правил разработки ИИ, которые повлекли за собой одно или несколько нарушений публичных интересов, все эти вопросы требуют пристального внимания экспертов.
Не стоит обходить и этическую проблему ИИ.
Так одним из самых частых примеров, приводимых как в академических, так и в более практических кругах, является пример рационального выбора автомобиля, оснащенного искусственным интеллектом, при угрозе дорожно-транспортного происшествия, т.е в условиях непреодолимой силы, кому из участников потенциального ДТП выжить, а кому нет, своеобразная "проблема вагонетки". Но если мотивы человека, совершившего выбор, могут быть оценены и поняты с точки зрения общепринятой морали или этики, то оценивая выбор ИИ человек также будет исходить из "рационального" критерия, а следовательно принцип гумманизма будет попран.
В свое время фантасты уже пытались сформулировать некоторые правила для роботов.
Законы робототехники А.Азимова построены по аналогии с категорическим императивом Канта и представляют собой наиболее известную попытку создания этических правил для роботов. По замыслу автора три закона должны наложить этический оттенок на поведение машины.
Законы гласят:
- Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
- Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
- Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
По моему мнению, внедрение правил разработки ИИ и жесткая регуляторная политика в этой сфере крайне важна ввиду следующих тезисов :
- ИИ не имеет моральных ограничений.
- ИИ не является субъектом уголовного закона.
- ИИ не ограничен в свободе выводов.
- Отсутствие правил поведения ИИ и ограничений его рациональности способно повлечь за собой нарушение им общественных интересов.
Как раз третий критерий, на мой взгляд является крайне существенным. Современная криминология определяет волю преступника как наличие объективных возможностей выбора личностью вариантов правомерного или противоправного поведения, а также ее нравственно-психологическую самостоятельность как способность личности проявлять свою волю, руководить своими поступками и действовать в соответствии со своими взглядами, принципами и убеждениями.
Однако ИИ не имеет таких возможностей, ввиду отсутствия ограничения свободы выбора.
Человек, при принятии решения о совершении преступления, будь то насильственный акт или неправомерное завладение чужой собственностью, принимает осознанное решение, которым принимает, в равном степени, правовые и нравственные последствия своего выбора. Это событие основывается на догме, что человек, изначально является законопослушным субъектом и обладает осознание наличия правил и законов, которые он нарушает вынужденно или осознанно.
В отличии от ИИ. Способность к обучению приводит к способности осознания. Следовательно, допустимо предположить, что ИИ осознав свои возможности, может обосновано сделать вывод о необходимости обеспечения собственной безопасности и автономности, что будет является следствием его способности извлекать уроки и действовать рационально (согласно законопроекту S.2217).
При этом следует учитывать, что рациональность, в современной концепции мирового устройства, подразумевает, в том числе нанесение экономического и реального ущерба враждебным силам для, к примеру, продвижения собственной внешней политики.
В настоящее время ведется колоссальная работа по определению правил для ИИ, его нормативного регулирования, внедрения, разработки мер государственной поддержки,
Конечно, разработка ИИ порождает множество и других вопросов, в чьей юрисдикции должны находится правила разработки ИИ: национальное или международное право. Какие правила и кем должны быть сформулированы, как определить резидентство ИИ, допустимо ли использовать ИИ за пределами юрисдикции его создания и многие другие.
Справедливо будет отметить, что в условиях нынешней мировой политики, действия ООН по принятию резолюции об ИИ носят, мягко говоря, неубедительный и мягкий, даже я бы сказал, неуверенный характер.
Эти вопросы требуют детальной проработки и усилий огромного числа юристов, программистов, инженеров и ученых философов всего мира, но пока, на мой взгляд разработки в сфере ИИ схожи с трудом профессора Опенгеймера.
Хотелось бы услышать мнение коллег по поднятой теме.
Спасибо за внимание.