Машинное обучение как метод применения искусственного интеллекта: суть технологии и обзор основных правовых проблем // Machine learning as a method of applying artificial intelligence: the essence of
Закон.Ру – официально зарегистрированное СМИ. Ссылка на настоящую статью будет выглядеть следующим образом: Рожкова М.А. Машинное обучение как метод применения искусственного интеллекта: суть технологии и обзор основных правовых проблем // Machine learning as a method of applying artificial intelligence: legal issues [Электронный ресурс] // Закон.ру. 2024. 18 марта. URL: https://zakon.ru/blog/2024/3/18/mashinnoe_obuchenie_kak_metod_primeneniya_iskusstvennogo_intellekta_sut_tehnologii_i_obzor_osnovnyh_
Продолжаю разбирать вопросы, попадающие ко мне вместе с запросами на заключения )
На сегодняшний день понятие «машинное обучение» (англ. machine learning) употребляются столь же часто, как и понятие «искусственный интеллект» (англ. artificial intelligence), причем и в публикация в СМИ, и в научных публикациях в одних случаях эти термины используются как взаимозаменяемые, в других – в разных значениях, на что неоднократно обращалось внимание в литературе[1].
Как показало проведенное исследование, для отождествления обозначенных понятий нет оснований, но и рассматривать их как принципиально различающиеся тоже нет причин.
1. Словосочетание «artificial intelligence», предложенное ученым-информатиком Джоном Маккарти в 1956 году, вовсе не связывалось его автором с пониманием интеллекта у человека: под intelligence понималась «вычислительная составляющая способности достигать целей в мире»[2], разные виды которой встречаются не только у людей, но и у животных, и у некоторых машин. Поэтому слово intelligence в используемом контексте означало скорее «умственные способности» или «умение рассуждать разумно», а вовсе не «интеллект», для которого есть английский аналог – intellect.
Таким образом, перевод словосочетания «artificial intelligence» на русский язык как «искусственный интеллект» не является верным – точнее было бы перевести его, например, как «искусственный разум». Косвенно подтверждает этот вывод, в частности, Рикардо Гуидотти, подчеркивающий, что термин «искусственный» используется для того, чтобы отличить его от «естественного» или «биологического» разума, которым обладает человек[3]. Однако в рамках настоящей статьи не предлагается изменить сложившуюся ситуацию, поскольку термин «искусственный интеллект» (далее – ИИ) уже прочно вошел в отечественный правовой обиход.
Применительно к ИИ привычным стало и деление его на сильный ИИ (под которым подразумевается самостоятельная электронная личность и который, по мнению ученых, может быть создан лет этак через 70-80) и слабый ИИ (который, будучи сложным технологическим решением, вместе с тем способен решать только узкоспециализированные задачи)[4]. Именно второй, за которым даже при сильном желании не удается углядеть правосубъектность, сегодня и выступает объектом пристального внимания[5] и именно он будет рассматриваться далее.
Всякий ИИ, являясь обычно не одной технологией, а совокупностью нескольких взаимоувязанных технологий, предполагает использование специально разработанных алгоритмов (представляющих собой описание вычислительных процедур, используемых компьютером при решении поставленных задач) и необходимых для работы баз данных (англ. database) и наборов данных (англ. dataset), что позволяет компьютеру фактически без участия человека решать разнообразные задачи, в том числе традиционно относящиеся к творческим, а также обучаться и самообучаться[6] в ходе разрешения таких задач.
Сказанное, казалось бы, позволяет видеть за обучением лишь вспомогательную роль, однако подобное впечатление оказывается неверным, объяснением чего является следующее.
2. Понятие «machine learning», которое в 1959 году было введено ученым-компьютерщиком Артуром Самюэлем[7], изначально понималось как способность компьютера обучаться, не будучи явно запрограммированным на выполнение конкретной задачи. Под этим подразумевалось обучение компьютера распознаванию: как известно, компьютер не может видеть, слышать и осязать в привычном для нас понимании – любой объект он может анализировать только если он представлен в двоичном (бинарном) коде, состоящем из символов 0 и 1. Поэтому, чтобы компьютер мог извлекать и анализировать информацию, все данные, в качестве которых могут выступать числа, слова, изображения, мелодии и проч., должны быть сохранены в цифровой форме (представлены в двоичном коде), что и позволит компьютеру распознавать их образы.
Со временем содержание понятия «машинное обучение» несколько изменилось, и сегодня оно подразумевает под собой способность компьютера на основе анализа данных самостоятельно делать прогнозы и предлагать решения, причем без явных инструкций со стороны человека.
Технология, предполагающая машинное обучение, требует создания человеком собственно самой модели – вычислительной (информационной) системы, в которой в качестве основных составляющих можно выделить решатель (компьютерная программа, которая на основе специальных алгоритмов будет разрешать поставленные задачи – делать прогнозы и вырабатывать решения), базы данных (создаваемые человеком для изучения компьютером конкретной предметной области знаний) и интеллектуальный интерфейс (совокупность средств, методов и правил, которые позволяют человеку вести общение с моделью). Для самого же машинного обучения необходима обучающаяся система, снабжаемая огромными объемами «обучающих данных»[8] (англ. training data), анализ и интерпретация которых и позволяет компьютеру впоследствии корректировать параметры модели, обновляя и улучшая ее с целью получения более точных результатов.
Таким образом, компьютер, анализируя наборы «обучающих данных», обобщает эти данные и выводит определенные закономерности (паттерны). Применение этих закономерностей при обработке следующих наборов «обучающих данных», позволяют компьютеру «учиться на основе предыдущих вычислений, чтобы вырабатывать достоверные, повторяющиеся решения и результаты»[9], а также совершенствовать модель для достижения более точных результатов.
Признается, что компьютеры, использующие машинное обучение, при получении новых наборов «обучающих данных» могут работать в двух направлениях. В зависимости от поставленной задачи они могут либо делать прогнозы будущих результатов (например, прогнозировать потенциальную торговлю определенными акциями, рассчитывать более точные модели прогнозируемого ценообразования, оценивать имущественные риски при страховании, прогнозировать пожизненную ценность клиента и т.п.), либо вырабатывать решения на основании классификации входных данных. При этом второе направление, крайне впечатляющее по охвату, включает: создание и использование на веб-сайтах чат-ботов, отвечающих на часто задаваемые вопросы; выявление подозрительных (нетипичных) транзакций на основе информации о ставших известными мошеннических транзакциях в банках и финансовых учреждениях, интернет-магазинах, страховых организациях и проч.; извлечение значимой информации из цифровых изображений, видео и других визуальных данных (компьютерное зрение) с целью заданного использования; распознавание речи для выполнения голосового поиска в мобильных устройствах и т.д. В итоге, как отмечается в литературе, машинное обучение приобрело промышленную значимость[10]: оно позволяет делать прогнозы и помогает принимать решения, основанные, например, на выявленном мошенничестве в торговых сетях, выстроенной компьютером логистической цепочке, предложении инновационного сервиса наподобие таргетинга и проч.
Изложенное позволяет заключить, что машинное обучение следует рассматривать как один из методов применения ИИ. Этот метод представляет собой альтернативу обычному использованию ИИ, где не предполагается никакое обучение, и классические алгоритмы строго следуют изначально заложенным человеком четким инструкциям преобразования данных в заранее заданный результат.
3. Применение машинного обучения на практике сталкивается с целым рядом правовых проблем, которые в рамках настоящей статьи осветить получится лишь обзорно (исходя из многочисленности как самих проблем, так и опубликованных по этому поводу работ).
3.1. Серьезной проблемой, которая на сегодняшний день приобрела широкое звучание, признается проблема использования авторских произведений при машинном обучении. Целый ряд зарубежных художников и писателей[11] уже предъявили иски к разработчикам ИИ, утверждая, что их произведения были использованы в качестве «обучающих данных», что позволило компьютерам выдавать результат в индивидуальном стиле этих авторов и нарушило авторские права.
В.А. Чебодаева пишет о том, что по смыслу российского права в тех случаях, когда авторские произведения выступают в качестве «обучающих данных», имеет место их воспроизведение (в цифровой форме в памяти компьютера) и переработка посредством применения алгоритма, что в силу ст. 1270 ГК РФ признается использованием произведений и допускается лишь с согласия автора[12]. Учитывая, что включение авторских произведений в наборы «обучающих данных» производится без согласия создателей произведений, автор статьи делает вывод о том, что в подобных случаях имеет место нарушение исключительных прав. Кроме того, В.А. Чебодаева предполагает, что необходимо признавать нарушенными и личные неимущественные права авторов, поскольку при воспроизведении в цифровой форме нарушается право на неприкосновенность произведений в значении ст. 1266 ГК РФ.
3.2. Общеизвестно, что в наборах «обучающих данных» (равно как и в первоначальных базах данных) по тем или иным причинам могут оказываться конфиденциальные данные, подпадающие под режим секретности или приватности[13] (в частности, персональные данные, данные о геолокации, а также сведения, содержащие медицинскую, банковскую, коммерческую тайну, тайну связи и т.п.). Нахождение их в числе «обучающих данных» вполне способно повлечь нарушение неприкосновенности частной жизни, дискриминацию и иные негативные последствия.
В.Б. Наумов и Е.В. Тытюк, еще в 2020 г. обратили внимание на попытку разрешения обозначенной проблемы путем проведения эксперимента по установлению специального регулирования для внедрения ИИ[14], которым предусматривалось для использования в машинном обучении только обезличенных персональных данных. Однако авторы признавали, что предлагаемое решение небесспорно, поскольку «обезличивание персональных данных не всегда гарантирует их полноценную защиту»[15] – в публикациях описывался целый ряд случаев, когда посредством сопоставления обезличенных данных удавалось определить субъектов таких данных.
Д.А. Мотовилова пишет, что цифровые следы, оставляемые пользователями Интернета в виде истории поиска и посещенных страниц, cookies и данных геолокации, постов и комментариев в соцсетях, позволяет создавать профили пользователей в качестве потенциальных потребителей товаров, услуг, информации. Эти профили обеспечивают накопление новой информации, которая потом может быть использована не только для анализа и прогнозирования личных предпочтений, поведения и взглядов пользователя, но и для принятия юридически значимых решений в отношении этих лиц[16].
3.3. Еще одной значимой проблемой является неопределенность в части принадлежности прав на наборы данных, необходимые для машинного обучения. Правда, это – глобальная проблема данных, связанная не только с машинным обучением, и проистекает она из неоднозначности в вопросе допустимости признания имущественных прав на данные, включая персональные данные.
Обозначенная проблема во многом связана с исключением в 2008 г. информации из легального перечня объектов гражданских прав (ст. 128 ГК РФ), что позволило многим юристам сделать вывод о недопустимости для данных (как разновидности информации) выступать объектом гражданских прав[17]. На самом деле такой вывод не соответствует п. 1 ст. 5 Федерального закона от 27.07.2006 № 149-ФЗ «Об информации, информационных технологиях и о защите информации» (далее – Закон об информации), прямо закрепляющему: «Информация может являться объектом публичных, гражданских и иных правовых отношений». При этом вследствие этой нормы именно сами данные, причем зачастую это именно большие объемы (наборы) данных, нередко становятся объектом гражданско-правовых сделок.
По поводу такого рода сделок необходимо отметить следующее. Нематериальный характер данных (информации) предполагает для них правовой режим, аналогичный режиму, установленному для объектов интеллектуальных прав – подобно объектам интеллектуальной собственности становиться объектом сделок и выпускаться в оборот могут не сами данные, а только права на них. Такая позиция не позволяет согласиться с предложением о введении в правовое поле такого объекта как «массив данных» с установлением для него специального правового режима – для признания такого объекта гражданских прав в качестве самостоятельного нет правовых оснований[18].
3.4. На пике обсуждений последние годы находится проблема признания авторских прав на результаты машинного обучения, обнаруживаемая в тех случаях, когда по своим параметрам эти результаты крайне схожи с результатами творческого труда человека, получающими авторско-правовую защиту. Отрицание правосубъектности ИИ не позволяет определиться ни с вопросом, можно ли признавать такие результаты творческими, ни с вопросом, кто является правообладателем таких результатов.
Так, П.А. Каштанова отмечает, что среди исследователей ИИ отсутствует единая позиция в отношении «присутствия» творческой составляющей в деятельности ИИ, причем противники признания творческого характера за такой деятельностью обоснованно подчеркивают, что «машины способны действовать исключительно в рамках программного кода, заданного человеком, даже если они производят результат, который разработчик алгоритма изначально не предвидел»[19].
М.Д. Прыгунова, углубившись в техническую составляющую машинного обучения, раскрывает сущность искусственной нейронной сети – компьютерной программы, построенной по принципу нейронов в человеческом мозге: «Внутренняя структура нейросети состоит из множества «нейронов» – вычислительных единиц, каждая из которых обрабатывает входные данные и передает полученный результат следующим единицам… Анализируя большие объемы данных, нейросеть при помощи математических вычислений выявляет и «запоминает» закономерности, обобщает признаки. Структура и принцип работы нейросети свидетельствует о том, что нейросеть не способна понимать смыслы и значения на том же глубоком уровне, как это делает человеческий мозг»[20]. На основании проведенных исследований автор делает вывод о том, что отношения по поводу объектов, сгенерированных нейросетью, следует регулировать нормами информационного права, ибо эти объекты не укладываются в рамки ни одного из режимов, которые существуют в действующем регулировании интеллектуальной собственности.
Е.В. Евтеева, в свою очередь, исходит из допустимости в некоторых случаях признавать охраноспособность результатов, создаваемых ИИ, в связи с чем, основываясь на собственной (авторской) классификации, предлагает несколько моделей правовой охраны таких результатов[21].
В нашей с О.И. Исаевой работе исследовался случай создания человеком произведения посредством переработки объекта, созданного ИИ, и был сделан вывод, что подобное авторское произведение нет оснований считать производным[22].
3.5. Крайне проблемной признается непрозрачность алгоритмов, на основании которых выносятся решения. Как было показано выше, решатель вычислительной системы (модели), использующей машинное обучение изначально программируется человеком, однако обучающаяся система может уточнять и совершенствовать составляющие решатель алгоритмы, что способно приводить компьютер к совершенно неожиданным решениям. Очень впечатляющим примером здесь, наверное, будет случай, произошедший в компании Amazon, когда при оценке кандидатов на должность разработчика программного обеспечения обучающаяся система исключила из списка соискателей всех женщин – основанием для подобного «уточнения» стало то, что заложенные в ее базу данных резюме 10-летней давности принадлежали в большинстве своем мужчинам[23].
На обозначенную проблему обращается внимание, в частности, в докладе НИУ ВШЭ: «Решения, предлагаемые ИИ, в большинстве случаев не являются полностью объяснимыми, предсказуемыми и прозрачными. Функционирование ИИ происходит в режиме «черного ящика», при котором трудно установить причину конкретного решения»[24]. При этом В.Б. Наумов и Е.В. Тытюк уточняют: «В случае самообучающихся систем ИИ данная проблема усугубляется еще и тем, что, поскольку процесс самообучения происходит непрерывно, алгоритм постепенно может менять схемы своего поведения, которые изначально были заложены разработчиком… Следует отметить, что на данный момент практически отсутствует возможность получить информацию о том, каким образом происходит обучение алгоритма, кто его производит, на каких данных он обучается. При этом большинство алгоритмов принадлежат частным компаниям, а информация о специфике их работы охраняется как конфиденциальная»[25].
Попытка устранить данную проблему в потребительской сфере (применительно к социальным сетям, онлайн-магазинам, видеосервисам и т.п.) предпринята в так называемом «Законе о рекомендательных алгоритмах»[26], дополнившим Закон об информации статьей 10.2-2 «Особенности предоставления информации с применением рекомендательных технологий». В публикациях по этому поводу отмечается, что в целях выполнения требований этого закона цифровые платформы публикуют информацию о применяемых рекомендательных алгоритмах – «какие данные собираются, как они систематизируются и анализируются, а также как они используются для таргетирования запросов пользователей… виды и источники данных для таргетирования»[27].
3.6. Немало правовых вопросов вызывают и такие результаты машинного обучения, как «дипфейки» (от англ. – «deep fakes») – не соответствующие действительности изображения, аудиозаписи или видеоматериалы – в тех случаях, когда они создаются в противоправных целях, в том числе диффамационных, мошеннических и т.п.
Первоначальным стремлением большинства юристов стало отнесение этой проблемы к сфере интеллектуальной собственности, что, конечно, неверно. Как показывают проведенные исследования, а также изучение опыта зарубежных стран, эта проблема должна решаться инструментарием законодательства о возмещении морального вреда, а нередко и нормами административного, а то и уголовного права[28].
3.7. В завершение настоящей статьи нельзя не упомянуть архиважную проблему распределения ответственности за правонарушения, допущенные в связи с применением ИИ. Причем правовая определенность должна быть достигнута посредством регламентации не только условий и мер юридической ответственности, но также и субъектов ответственности, которые будут различаться в зависимости от этапов жизненного цикла ИИ[29]. И здесь важность приобретает то обстоятельство, что жизненный цикл ИИ, включающий в себя этап разработки, этап эксплуатации и этап вывода ИИ из эксплуатации, в настоящее время требует более широкой трактовки первого этапа: сегодня содержанием этого этапа охватывается не только собственно разработка, но также сбор и исследование данных, предварительная обработка данных, отчасти – машинное обучение и т.д.[30], что влечет расширение субъектного состава участников отношений по поводу ИИ.
В заключение, вероятно, было бы уместно поразмышлять, как обозначенные проблемы могли бы быть разрешены посредством урегулирования в Инфокоммуникационном (Цифровом) кодексе[31]. Однако, думается, такого рода размышления заслуживают самостоятельных публикаций.
Заказать правовое заключение / исследование – https://rozhkova.com/
Другие работы автора в открытом доступе – https://rozhkova.com/all.html
[1] См., например, Kühl N., Goutier M., Hirt R., Satzger G. Machine Learning in Artificial Intelligence: Towards a Common Understanding. 2019 (URL: https://arxiv.org/ftp/arxiv/papers/2004/2004.04686.pdf); Wakefield K. A guide to the types of machine learning algorithms and their applications (URL: https://www.sas.com/en_gb/insights/articles/analytics/machine-learning-algorithms.html).
[2] McCarthy, J. What is Artificial Intelligence? URL: http://www-formal.stanford.edu/jmc/whatisai/whatisai.html (see: Basic Questions).
[3] URL: https://rm.coe.int/iris-special-2-2020en-artificial-intelligence-in-the-audiovisualsecto/1680a11e0b
[4] См. п. 9 Указа Президента РФ от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации».
[5] См. об этом: LegalTech, FinTech, RegTech etc.: правовые аспекты использования цифровых технологий в коммерческой деятельности: коллективная монография / рук. авт. кол. и науч. ред. М. А. Рожкова. М.: Статут, 2021. С. 179 и далее. (URL: https://rozhkova.com/books_text/Tech.pdf).
[6] Принято выделять 3 основные метода обучения: контролируемое, неконтролируемое, полуконтролируемое машинное обучение. Последнее иногда именуют как «обучение с подкреплением» (см., например, What is machine learning (ML)? URL: https://www.ibm.com/topics/machine-learning).
[7] Samuel Arthur L. Some Studies in Machine Learning Using the Game of Checkers // IBM Journal. 1959. Vol. 3, No.3. July, P. 210—229 (URL: https://people.csail.mit.edu/brooks/idocs/Samuel.pdf).
[8] См., например, What Is Machine Learning? Complex Guide for 2022 (URL: https://www.netguru.com/glossary/machine-learning).
[9] Machine Learning: What it is and why it matters (URL: https://www.sas.com/en_us/insights/analytics/machine-learning.html).
[10] Jordan, M.I. Artificial Intelligence – The Revolution Hasn’t Happened Yet (URL: https://hdsr.mitpress.mit.edu/pub/wot7mkc1/release/9).
[11] См. об этом, например: Писатели Джордж Мартин, Джонатан Франзен и другие подали иск против OpenAI за нарушение авторских прав // URL: https://vc.ru/legal/845604-pisateli-dzhordzh-martin-dzhonatan-franzen-i-drugie-podali-isk-protiv-openai-za-narushenie-avtorskih-prav; Писатели подали в суд на Nvidia из-за использования для обучения NeMo произведений, защищённых авторским правом // URL: https://habr.com/ru/news/799443/; ChatGPT теперь пытается скрыть тот факт, что он был незаконно обучен на произведениях, защищенных авторским правом // URL: https://new-science.ru/chatgpt-teper-pytaetsya-skryt-tot-fakt-chto-on-byl-nezakonno-obuchen-na-proizvedeniyah-zashhishhennyh-avtorskim-pravom; Двое писателей из США обвинили OpenAI в нарушении DMCA и авторских прав и подали иск к компании // URL: https://habr.com/ru/news/745216/.
[12] Чебодаева В.А. Контент, сгенерированный нейросетью: кто виноват и что делать? [Электронный ресурс] // Журнал Суда по интеллектуальным правам. 2023. № 4 (42) (декабрь). С. 46-58. (URL: http://ipcmagazine.ru/asp/content-generated-by-a-neural-network-who-is-to-blame-and-what-to-do
[13] См.: Рожкова М.А. Являются ли персональные данные действительно конфиденциальными, или Как соотносятся категории «персональные данные» и «тайны» (взгляд цивилиста) [Электронный ресурс] // Закон.ру. 2019. 18 марта. (URL: https://zakon.ru/blog/2019/03/18/yavlyayutsya_personalnye_dannye_dejstvitelno_konfidencialnymi_ili_kak_sootnosyatsya_kategorii_person).
[14] Федеральный закон от 24.04.2020 N 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации – городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона "О персональных данных"».
[15] Наумов В.Б., Тытюк Е.В. Правовые проблемы машинного обучения // Образование и право. 2020. № 6. С. 219-231 (URL: https://cyberleninka.ru/article/n/pravovye-problemy-mashinnogo-obucheniya?ysclid=ltigehrqt2339477194).
[16] См. об этом: LegalTech, FinTech, RegTech etc.: правовые аспекты использования цифровых технологий в коммерческой деятельности: коллективная монография / рук. авт. кол. и науч. ред. М. А. Рожкова. М.: Статут, 2021. С. 196 и далее. (URL: https://rozhkova.com/books_text/Tech.pdf).
[17] Поясняя такое законодательное решение, нужно напомнить, что при разработке ГК РФ под информацией изначально понимались лишь служебная и коммерческая тайна, и когда впоследствии отношения по этому поводу были урегулированы Федеральным законом от 29.07.2004 № 98-ФЗ «О коммерческой тайне» и гл. 75 ГК РФ о секрете производства, специальное упоминание информации в ст. 128 ГК РФ, по мнению разработчиков, стало излишним, вследствие чего и было исключено. Эта новация сослужила плохую службу, дав повод для суждений о чуть ли не легальном запрете рассматривать информацию в имущественном ключе, вследствие чего часть юристов продолжает придерживаться мнения, что информация сможет стать объектом гражданских прав только при условии ее прямого возвращения в текст ст. 128 ГК РФ (См. Рожкова М.А. Имущественные права на новые нематериальные объекты в системе абсолютных прав // Право цифровой экономики – 2020 (16): Ежегодник-антология / Рук. и науч. ред. М. А. Рожкова. М.: Статут, 2020. С. 5-78 (URL: https://rozhkova.com/pdf/2020-16-pce-i.pdf).
[18] Подробнее см.: Рожкова М.А. Наборы данных, массивы данных, банки данных, базы данных – что это такое и как их различать? [Электронный ресурс] // Закон.ру. 2020. 6 июля. (URL: https://zakon.ru/blog/2020/07/06/nabory_dannyh_massivy_dannyh_banki_dannyh_bazy_dannyh__chto_eto_takoe_i_kak_ih_razlichat)
[19] Каштанова П.А. Перспективы правовой охраны произведений, создаваемых с использованием искусственного интеллекта в России [Электронный ресурс] // Журнал Суда по интеллектуальным правам. 2023. № 1 (39) (март). С. 120-132. (URL: http://ipcmagazine.ru/asp/prospects-for-the-legal-protection-of-works-created-using-artificial-intelligence-in-russia).
[20] Прыгунова М.Д. Нейросети и сгенерированные объекты: информационно-правовой подход [Электронный ресурс] // Журнал Суда по интеллектуальным правам. 2023. № 3 (41) (сентябрь). С. 175-189. (URL: http://ipcmagazine.ru/legal-issues/neural-networks-and-generated-objects-information-legal-approach).
[21] Евтеева Е.В. Охраноспособность объектов, созданных искусственным интеллектом: теоретическое обобщение [Электронный ресурс] // Журнал Суда по интеллектуальным правам. 2022. № 3 (37) (сентябрь). С. 97-110. (URL: http://ipcmagazine.ru/legal-issues/protectability-of-objects-created-by-ai-theoretical-generalization).
[22] Рожкова М.А., Исаева О.В. Квалификация в качестве производных произведений объектов, создаваемых на основе результатов машинного обучения и «произведений» искусственного интеллекта // Интеллектуальные права в цифровую эпоху: избранные аспекты: коллективная монография. Вып. 19 / рук. авт. кол. и науч. ред. М.А. Рожкова; вступ. ст.: В. А. Корнеев. – М.: ГАУГН Пресс, 2023.
[23] Dastin, J. Amazon scraps secret AI recruiting tool that showed bias against women // URL: https://www.reuters.com/article/amazoncom-jobs-automation/insight-amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSL2N1VB1FQ .
[24] Доклад НИУ ВШЭ «Правовые аспекты использования искусственного интеллекта: актуальные проблемы и возможные решения». Руководители авторского коллектива В.Б. Наумов, С.А. Чеховская, А.Ю. Брагинец, А.В. Майоров. М., 2021 // URL: https://www.hse.ru/mirror/pubs/share/480106412.pdf
[25] Наумов В.Б., Тытюк Е.В. Правовые проблемы машинного обучения // Образование и право. 2020. № 6. С. 219-231 (URL: https://cyberleninka.ru/article/n/pravovye-problemy-mashinnogo-obucheniya?ysclid=ltigehrqt2339477194).
[26] Федеральный закон от 31 июля 2023 г. № 408-ФЗ «О внесении изменения в Федеральный закон «Об информации, информационных технологиях и о защите информации»»
[27] Яндекс, VK и другие гиганты раскрывают свои секреты: что в рекомендательных алгоритмах? 3 октября 2023 // URL: https://www.securitylab.ru/news/542361.php.
[28] Об этом мы говорили на недавнем расширенном заседания Комитета по правовым вопросам, посвященном проблемам дипфейков, доменных имен и информационных посредников // URL: https://ipclub.in/info2024.html#lt40
[29] Жизненный цикл (англ. life cycle) определяется как развитие системы, продукции, услуги, проекта или другой создаваемой изготовителем сущности от замысла до вывода из эксплуатации (п. 3.10 Предварительного национального стандарта ПНСТ 777-2022 «Системы искусственного интеллекта в клинической медицине. Часть 10. Процессы жизненного цикла» (утв. и введен в действие приказом Федерального агентства по техническому регулированию и метрологии от 8 ноября 2022 г. N 91-пнст))
[30] Хазика Саджид Жизненный цикл разработки ИИ: полный отказ в 2023 г. // URL:
https://www.unite.ai/ruзавершение-жизненного-цикла-разработки-ИИ-в-2023-году/
[31] Рожкова М.А. Цифровой и инфокоммуникационный кодексы: проблемы предмета правового регулирования // Digital and infocommunication codes: problems of the subject of legal regulation [Электронный ресурс] // Закон.ру. 2024. 9 февраля. URL: https://zakon.ru/blog/2024/02/09/cifrovoj_i_infokommunikacionnyj_kodeksy_problemy_predmeta_pravovogo_regulirovaniya__digital_and_info