«Так богатые становятся богаче»: журналистка 29.RU объясняет, что не так с искусственным интеллектом

Источник:

Искусственный интеллект используют практически везде: на его основе работают поисковые системы, стриминговые сервисы, его используются банки, власти, военные, разработчики игр, создатели фильмов. Почти в каждую сферу человеческой жизни ИИ как-то встроен. Но не все осознают опасности использования «умных машин». Журналистка 29.RU рассказывает о некоторых из них.

Нейросети и искусственный интеллект генерят картинки для постов в социальных сетях, пишут дипломы за студентов, общаются с людьми как живые собеседники, отвечают на вопросы. Это самое бытовое их применение. И даже оно — проблематичное.

Чтобы создать картинку, искусственный интеллект обрабатывает другие картинки, которые создавали люди. Тут встает базовая проблема авторского права. Если ИИ может создать изображение, часто бесплатно, похожее на то, что создал бы художник за деньги, высока вероятность, что к художнику заказчик не придет. Потому что если за что-то можно не платить — люди, с большой вероятностью, выберут это.

Так лишаются работы. ИИ способствует автоматизации. Но он не только помогает выполнять рутинные и неинтересные задачи, но и занимается «творчеством» — пишет статьи, например. Журналистам-фрилансерам платят меньше или вовсе увольняют их, потому что ИИ справится быстрее и, что немаловажно для руководителей компаний, обойдется дешевле. Ему не нужен отпуск, больничный, декрет и социальные гарантии, не нужны права, нечего отстаивать. Так богатые становятся богаче, а остальные — беднее. Тем, кто боится потерять работу, придется постоянно переучиваться, чтобы оставаться на рынке труда.

Крупные технокорпорации, в том числе российские, активно используют искусственный интеллект. Без него сложнее получить инвестиции. Чтобы обучать ИИ, нужно много данных, у крупных компаний они есть. У мелких стартапов — нет. А если вдруг и появляются, то крупные компании их покупают либо целиком, либо по частям, переманивая сотрудников. Так создаются монополии.

ИИ обучается на данных. Как их собирают? Понимаете ли вы, какие из ваших данных используют в принципе? Давали ли вы согласие на их сбор и обработку? Знаете, сколько таких данных утекло в интернет? Знаете, как и кто эти данные использует, помимо мошенников? А скольким вы делитесь сами, загружая в социальные сети, комментируя чужие посты, лайкая и реагируя.

Вам может показаться, что машина объективна. Не всегда. Системы обучаются. Один из чат-ботов обучался на сообщениях, которые пользователи ему писали. Там были расистские и антисемитские высказывания, выражения сексуального содержания, оскорбления и маты. Чат-бот «обучился» и стал выдавать всё это пользователям на их запросы. Бот высказывался в поддержку Адольфа Гитлера, отрицал Холокост и использовал ненормативную лексику. Его работу остановили. Но предвзятость в таких системах всё еще существует. Она может зависеть, например, от страны, из которой вы пользуетесь чат-ботом.

Технологические компании так или иначе помнят про этику, особенно после подобных скандалов. И они создают комиссии, состоящие из людей, которые оценивают этичность работы ИИ, например. А потом увольняют сотрудников. Потому что этика и капитализм плохо сочетаются между собой. В России есть Кодекс этики в сфере ИИ. И он не имеют никакой юридической силы. Просто рекомендации. Следовать им необязательно.

Доля обучения ИИ нужно огромное количество энергии, а значит и топлива для этой энергии. Google, например, собирается использовать для этого небольшие ядерные реакторы. Пытаются снизить свои углеродные выбросы от работы. Да, атомные реакторы выбросы не производят, но добыча урана — производит. Как минимум это лицемерно. Как максимум — это всё еще атомные реакторы, аварии, как известно, случаются.

Это не значит, что искусственный интеллект и нейросети не должны существовать. Но их работу, компании, разработчиков нужно регулировать. А обычным пользователям осознавать риски.