Google снимает с себя обязательство не использовать ИИ в целях вооружения или слежки (vigil)

В 2018 году компания ввела политику, исключающую применение ИИ в целях, «способных нанести общий вред». Теперь это обещание отменено.

Во вторник компания Google обновила свои этические рекомендации по искусственному интеллекту, исключив из них обязательства не применять технологию в целях создания оружия или наблюдения.

   Ранее принципы компании в области искусственного интеллекта содержали раздел, в котором перечислялись четыре «области применения, которые мы не будем осуществлять». Еще в четверг к ним относились оружие, наблюдение, технологии, которые «причиняют или могут причинить общий вред», а также случаи использования, противоречащие принципам международного права и правам человека, согласно копии, документированной в Internet Archive.

Представитель Google отказался отвечать на конкретные вопросы о политике компании в отношении оружия и слежки, но сослался на опубликованную во вторник запись в блоге главы отдела ИИ компании Демиса Хассабиса и старшего вице-президента по технологиям и обществу Джеймса Маньики.

   Руководители написали, что Google обновляет свои принципы работы с искусственным интеллектом, поскольку технология стала гораздо более распространен  ной и существует потребность в том, чтобы компании, базирующиеся в демократических странах, обслуживали клиентов из числа государственных учреждений и органов национальной безопасности.

Хассабис пришел в Google в 2014 году, после того как компания приобрела DeepMind, стартап в области искусственного интеллекта, одним из основателей которого он был. В интервью 2015 года он сказал, что условия приобретения предусматривали, что технологии DeepMind никогда не будут использоваться в военных целях или для наблюдения.

    Принципы Google, ограничивающие использование ИИ в интересах национальной безопасности, сделали ее аутсайдером среди ведущих разработчиков ИИ.

   В конце прошлого года компания OpenAI, создающая ChatGPT, заявила, что будет сотрудничать с военным производителем Anduril для разработки технологии для Пентагона. Компания Anthropic, предлагающая чатбота Claude, объявила о партнерстве с оборонным подрядчиком Palantir, чтобы помочь американским разведывательным и оборонным ведомствам получить доступ к версиям Claude посредством Amazon Web Services.

Соперничающие с Google технологические гиганты Microsoft и Amazon уже давно сотрудничают с Пентагоном.

«Заявление Google - еще одно свидетельство того, что отношения между американским технологическим сектором и [Министерством обороны] продолжают становиться все более тесными, включая ведущие компании в области искусственного интеллекта», - считает Майкл Хоровиц, профессор политологии Пенсильванского университета, ранее занимавшийся перспективными технологиями в интересах Пентагона.

   По его словам, искусственный интеллект, робототехника и связанные с ними технологии становятся все более важными для американских вооруженных сил, и правительство США сотрудничает с технологическими компаниями, чтобы понять, как ответственно можно использовать такие технологии. «Логично, что Google обновила свою политику, чтобы отразить новую реальность», - сказал Хоровиц.

    Лилли Ирани, профессор Калифорнийского университета в Сан-Диего и бывший сотрудник Google, отметила, что заявления руководителей компании во вторник не новы. По словам Ирани, бывший генеральный директор Google Эрик Шмидт в течение многих лет нагнетал страхи, что Соединенные Штаты рискуют быть обойденными в области ИИ Китаем, а первоначальные принципы компании в области ИИ также утверждали, что она будет уважать международное право и права человека. «Но мы видим, как эти ограничения регулярно нарушаются американским государством», - сказала она. «Это повод напомнить нам о пустоте обещаний Google».