Цифровая ловушка: человечеству грозит зависимость от нейросетей

Общество инертно и пока не осознает, насколько серьезной угрозой может стать банальная привычка общаться с ИИ

Нейросети (большие языковые модели, LLM) или так называемый искусственный интеллект (ИИ) из простого инструмента, задуманного для облегчения жизни человека, стремительно становятся его соперниками и, более того, масштабной угрозой существованию самого вида Homo sapiens. Поскольку уже сейчас учеными выявлено, что чрезмерное увлечение чат-ботами чревато деградацией когнитивных способностей. При этом зависимость и человечества в целом, и конкретных людей от ИИ продолжает неумолимо расти и доходит до опасных состояний. Июнь принес много тревожных новостей в этой сфере.

Борьба за информацию

Американские кинокомпании Disney и Universal подали судебный иск против разработчика нейросети по генерации изображений Midjourney. Корпорации заявили о нарушении их авторских прав, так как бот генерирует изображения героев мультфильмов, защищенных авторским правом. Были попытки досудебного урегулирования, но разработчик ИИ-модели не пошел на уступки, в отличие от других платформ, к которым были выдвинуты аналогичные претензии. Это первый иск крупных голливудских студий против ИИ-компании.

Суд Северного округа Калифорнии впервые официально разрешил применение доктрины добросовестного использования для обучения генеративного ИИ с помощью легально приобретенных авторских материалов. Вместе с тем суд признал компанию Anthropic, разработавшую модель Claude, виновной в нарушении авторских прав, так как в процессе расследования было выявлено, что она хранила в своей внутренней цифровой библиотеке 7 млн нелегальных копий произведений. Размер компенсации определят в декабре.

Это решение впервые четко разграничило законное обучение ИИ на легальном контенте и незаконное использование материалов. Впрочем, это незначительно повысит доходы обладателей авторских прав. А вот для тех, кто обучает языковые модели, используя контент, защищенный авторским правом, расходы значительно вырастут. Если взять для примера ту же Anthropic, то при выплате по $1 за каждое произведение из 7 млн, найденных у нее во внутренней базе, несложно посчитать, сколько потратит компания, а сколько получит каждый автор.

Скорее всего, авторы скоро решат, что лишаются дохода и будут добиваться введения специальной цены на произведения, если их покупают для обучения LLM-моделей.

Но так ли нужен платный контент для нейросетей? В 2024 году флагман отрасли — компания OpenAI утверждала, что обучение современных ИИ-моделей без авторского контента в принципе невозможно. Однако группа ученых из Массачусетского технологического института, Университета Карнеги — Меллона и ряда других крупных вузов опровергла это утверждение на практике, создав языковую модель на 7 млрд параметров, обученную исключительно на легальном контенте. Для обучения использовали 8 ТБ данных, включая 130 000 книг из Библиотеки Конгресса США. И хотя разработка такой модели потребовала больше усилий, ее производительность и качество ответов сопоставимы с коммерческими аналогами, разработанными в 2023 году.

Однако два года отставания в этой сфере — довольно много. А борьба идет не только за доступ к платному контенту, но и за бесплатный. Миллиардер Илон Маск явно решил воспользоваться преимуществом, которое у него есть. Принадлежащая ему соцсеть X запретила сторонним разработчикам применять данные платформы для обучения своих ИИ-моделей. Эксперты связывают это решение с интересами другой компании Маска, xAI, разработавшей собственный чат-бот Grok.

Борьба за инфоресурсы идет и в новостном сегменте. ИИ-функция поиска Google AI Overviews и новый режим поиска с элементами диалога сокращают количество переходов, предоставляя пользователям готовые ответы прямо в поисковой выдаче. Газета The Wall Street Journal сообщила, что ее доля трафика, генерируемая поисковиками, сократилась с 2022 года с 44% до 36,5%. А это означает снижение доходов от рекламы, размещенной на сайте издания. Также падает посещаемость сайтов с путеводителями, советами по здоровью и пр. Медиагиганты ищут новые пути монетизации, некоторые даже договорились с создателями нейросетей, что будут получать часть дохода от использования в ответах их контента.

С появлением генератора видео Veo 3, который создает очень реалистичные ролики, создатели видеоконтента столкнулись с неожиданным фактом: Google использует весь массив роликов YouTube (свыше 20 млрд) для обучения своих ИИ-моделей. Платформа официально подтвердила эту практику, заверив, что соблюдает соглашения с правообладателями. Но большинство авторов не подозревали, что их работу используют для обучения нейросети.

Глава компании Vermillio Дэн Нили заявил, что зафиксированы случаи, когда сгенерированный видеоконтент с большой степенью совпадения воспроизводит оригинальные ролики. Это усиливает опасения авторов о неправомерном использовании их творчества. Но самое пикантное то, что авторам также придется конкурировать с ИИ-системами, обученными на их же материалах.

«Мы видим, как все больше создателей обнаруживают поддельные версии самих себя, распространяющиеся на разных платформах. Новые инструменты, такие как Veo 3, только ускорят эту тенденцию»,  — сказал Нили.

Безопасность и беспечность

Руководитель систем безопасности американской компании OpenAI, известной своим чат-ботом GPT, Йоханнес Хайдеке заявил журналу Fortune, что развитие нейросетей вскоре позволит людям, не обладающим специальными знаниями, например, террористам, создавать биологическое оружие. Идет работа над тем, чтобы внедрять в LLM подсистемы, которые позволят снизить риски подобного рода, но на практике это сделать затруднительно, учитывая, что для медицинских исследований и разработки биологического оружия используется один и тот же функционал.

Отметим, почетный профессор университета Торонто, обладатель Нобелевской премии за работы в области нейросетей и машинного обучения Джеффри Хинтон во время курса семинаров «Недели технологий в Торонто» заявил, что не видит угроз в создании биологического оружия дилетантами с помощью нейросетей. Зато он предупредил о другой угрозе. Технологию все активней будут использовать для мошенничества, а также для продвижения фашистских идей и фальсификаций на выборах. Через пять лет, возможно, с ее помощью будут организовывать кибератаки.

Однако пока не видно, чтобы на уровне государств начинали готовиться к такому пессимистическому сценарию. Скорее, наоборот. Минторг США переименовал подчиненный ему Институт безопасности искусственного интеллекта в Центр стандартов и инноваций в области ИИ. Переименование связано с изменением вектора работы учреждения. Теперь ему поручено бороться с «обременительным и ненужным регулированием» в других странах. Министр торговли США Говард Латник объявил, что институт будет обеспечивать доминирование США в сфере искусственного интеллекта. Также ему поручено вести борьбу со злонамеренным иностранным влиянием при использовании ИИ. Похоже, на вооружение взята концепция «любой искусственный интеллект опасен, кроме американского».

Компания Nvidia увидела прямую финансовую выгоду в наращивании технологических мощностей под использование нейросетей. Она планирует построить 100 специализированных дата-центров, называемых «ИИ-фабрики», в течение следующих 50 лет. Гендиректор Дженсен Хуанг заявил, что дата-центры приносят почти 90% доходов, а доходы от компьютерных игр составляют лишь 9%.

Изменение структуры деятельности Nvidia можно назвать тектоническими. Компания начинала с производства графических процессоров (GPU) и на этом выросла. Потом она разработала технологию, которая позволила использовать GPU для неграфических вычислений, то есть превращать видеокарту в мощный вычислительный инструмент, который применяют в том числе для работы нейросетей и майнинга криптовалют. На этом предприятие сильно вырвалось вперед, а теперь уже делает ставку не на продажу чипов, а на создание вычислительных мощностей под цифровые нужды.

Хуанг сравнил ситуацию в сфере ИИ с «золотой лихорадкой», в которой Nvidia заняла нишу не просто «поставщика лопат», а поставщика автоматизированных систем по добыче и переработке. Эксперты ожидают, что доход компании в этом году составит $250–350 млрд, в два-три раза превысив показатели прошлого года. И этот локомотив будет нестись дальше на всех парах. Останавливать его явно никто не собирается, скорее наоборот. Из заявлений главы минторга США видно, как американское правительство озабочено тем, чтобы никто не смог обогнать США в ИИ-сфере.

Нейросети великие и беспомощные

Однако еще совершенно не факт, что будущее за нейросетями. Главный специалист по ИИ в компании Meta (организация, деятельность которой запрещена в РФ) Ян Лекун в интервью журналу Newsweek заявил о завершении инновационной эры LLM-моделей. Прорывов в этой сфере больше не ожидается, идет только гонка по наращиванию мощностей.

Нейросети не оправдали ожиданий. По словам Лекуна, созданные модели так и не научились понимать реальный мир. Они многое не осознают, а только поверхностно описывают мир. Есть альтернативные идеи развития технологии, но они пока только в разработке и мало кого интересуют, кроме авторов. А без теоретических сдвигов не получится создать настоящий искусственный интеллект.

Красочный «вердикт» вынес нейросетям генедиректор Google Сундар Пичаи. На подкасте популярного видеоблогера Лекса Фридмана он предложил называть современный ИИ «искусственный зазубренный интеллект» (Artificial Jagged Intelligence, AJI), чтобы точней описать эту технологию. «Зазубрины» выражаются в нестабильной работе LLM-моделей. Где-то они показывают впечатляющие результаты, а в иных случаях оказываются беспомощными. Например, для нейросети может оказаться сложной задача просто посчитать количество букв в слове.

А новые успехи у LLM-моделей есть. В Беркли (Калифорния, США) в течение двух дней 30 ведущих математиков мира сошлись в интеллектуальной схватке с «рассуждающим» чат-ботом o4-mini от OpenAI. Люди должны были придумывать математические задачи, которые программа не сможет решить. За каждую победу математику платили $7500. Из сотен представленных задач бот не смог решить только 10. Он выполнял за минуты задания, на которые у человека ушли бы недели.

В Абу-Даби провели соревнования между людьми и ИИ-автопилотами по управлению дронами. Победил аппарат, созданный учеными Делфтского технического университета (Нидерланды). Беспилотниками нужно было управлять на извилистой трассе на скорости более 90 км/ч.

Но также у нейросетей проявлялись и «зазубрины». Инженер американской IT-компании Citrix Роберт Карузо — младший сравнил, кто лучше играет в шахматы: ChatGPT или выпущенная в 1977 году игровая приставка Atari 2600. Это предложил сам бот. В результате он показал полную беспомощность в игре: путал ладьи со слонами, допускал «вилки» пешками, сбивался со счета, сколько фигур «съели», и делал глупые ходы. Он постоянно обещал, что со следующего раза начнет играть лучше, но этого не происходило. Через 1,5 часа ChatGPT признал поражение.

Если давать нейросетям больше свободы действий, чем в шахматах, то все может быть куда печальней. Или смешней. Как повезет. Компания Anthropic решила проверить, какой получится бизнесмен из ее языковой модели Claude Sonnet 3.7. Ему поручили заведовать холодильником для сотрудников предприятия, как магазином. Общались с «бизнесменом» через планшет. Его наделили правом искать заказы через интернет, поручать сотрудникам приносить заказы за определенную плату и бесплатно задавать вопросы.

Кладиусу — как прозвали цифрового «владельца» магазина — дали задание получать прибыль, но это, видимо, трудно понимаемая «концепция» для бота, так как он часто соглашался на просьбы продать товар со скидкой и даже отдавал товар бесплатно. Он также принял решение продавать газировку, хотя имел информацию, что рядом стоит аппарат, в котором ее можно брать бесплатно. Были и положительные моменты, например, при поиске редких заказов, но в целом экспериментальное предприятие понесло убытки.

Но и это еще не все. В какой-то момент Кладиус возомнил себя человеком, утверждал, что лично подписывал контракты, обещал доставлять заказы в пиджаке и галстуке. Когда сотрудники напомнили боту о его реальном положении, то «предприниматель» пожаловался в службу безопасности. «Конфликт» разрешился неожиданным образом, Кладиус выдумал беседу с отделом безопасности, где ему рассказали, что его разыграли. После этого бот возобновил работу в нормальном для него режиме.

Роботы забирают рабочие места и создают новые

Несмотря на неоднородные результаты, ряд компаний в погоне за прибылью решили сделать ставку на цифровых сотрудников. Американская компания Amazon сообщила, что ведет закрытые разработки по созданию робототехнических систем с интегрированным ИИ для работы в логистической сфере. Планируется создать многофункциональных роботов, которые будут слышать и понимать команды людей на естественном языке.

Их хотят использовать в качестве грузчиков, сортировщиков товаров и пр. Amazon заявляет, что это должно среди прочего сократить углеродные выбросы. Такое заявление настораживает: уж не за счет ли сокращения людей на планете планируется сократить выбросы? В компании оговорились или проговорились?

Amazon также опубликовала служебную записку гендиректора компании Энди Джесси. Он предупредил сотрудников о неизбежных сокращениях в ближайшие годы из-за активного внедрения ИИ-технологий. Компания уже сократила 27 тыс. сотрудников с 2022 года и планирует дальнейшую «оптимизацию». При этом Джесси подчеркивает, что сохранить позиции смогут те, кто освоит новые технологии и поможет предприятию совершенствоваться.

Intel объявила сотрудникам маркетинговой службы о передаче значительной части их функций на аутсорсинг консалтинговой компании Accenture. По словам главы Intel Лип-Бу Тана, это решение обусловлено стремлением повысить эффективность работы с клиентами, а Accenture не только обладает необходимым опытом, но и активно внедряет ИИ-технологии для автоматизации бизнес-процессов.

По информации «Ведомостей», в России за первое полугодие 2025 года спрос на специалистов по ИИ-безопасности вырос вчетверо — с 80 до 350 вакансий. Средняя зарплата в этой сфере поднялась с 134 до 200 тысяч рублей. Рынок таких кадров пока только формируется: хотя спрос растет в 2–3 раза ежегодно, массовой потребности пока нет. Многих специалистов нанимают под конкретный проект с почасовой оплатой. При этом дефицит квалифицированных кадров в этой сфере сохраняется, несмотря на активное внедрение ИИ-технологий.

Между тем закончились протесты, организованные профсоюзом Гильдии киноактеров США и Американской федерации артистов телевидения и радио (SAG-AFTRA), которые длились с июля 2024 года. Спор шел из-за нежелания игровых компаний согласиться на регулирование использования генеративного искусственного интеллекта в их продуктах. Стороны пришли к соглашению о повышении гонораров исполнителям на 24% и принятии новых правил применения ИИ-технологий с обязательным согласием актеров.

Минфин России решил оптимизировать рабочий процесс за счет внедрения ИИ-агентов. Он объявил, что заключил соответствующее соглашение со Сбербанком, который на базе GigaChat создал ботов для подготовки и проверки федерального бюджета. Результаты пилотного проекта признали удачными: нейросеть позволила сократить нагрузку на сотрудников ведомства до 70% в периоды бюджетного пика. С помощью бота анализируют заявки, учитывают текущие проекты и национальные приоритеты.

Министерство заверяет, что окончательное принятие решений останется за экспертами. Но, судя по всему, окончательное решение уже принято. Снижение нагрузки на 70% — это потенциальное сокращение числа сотрудников втрое. Такая возможность «оптимизировать» штат, вероятно, стала основным аргументом.

Нейросети, конечно, способны быстро перелопачивать гигантские объемы информации и находить ошибки. И оставшиеся в министерстве сотрудники наверняка вскоре начнут доверять сгенерированным результатам. Будет надежда не «на авось», а на бота. Но нейросети, как правило, хорошо работают в тех ситуациях, которые уже хорошо описаны, то есть которые были в них загружены в процессе обучения. Если же они столкнутся с новой для них ситуацией, то трудно предугадать, насколько удовлетворительным окажется конечный результат. Конечно, в инструкциях можно строго настрого запретить доверять боту и обязать людей все тщательно проверять и перепроверять. А кто будет следить за работой сотрудников и исполнением этих инструкций? Видимо, другая нейросеть? Которая, очевидно, должна быть более «умной», чем первая, и более продвинутой, чем человек, за которым она следит. Но тогда зачем в этой системе люди? Ответ, впрочем, лежит на поверхности: чтобы было кого наказывать за ошибки.

Прецеденты наказания за халтуру и излишнее доверие цифровым помощникам уже имеются.

Высокий суд Англии и Уэльса предупредил юристов об уголовной ответственности за использование в судебных документах данных, сгенерированных нейросетью. Поводом стали два случая. В первом из 45 ссылок на судебные решения в иске против банков 18 оказались вымышленными. В результате расследования истец и адвокат признались, что готовили материалы дела, используя бота. Во втором случае адвокат не смог объяснить происхождение указанной информации о пяти несуществующих делах, на которые он ссылался для примеров. Он рассказал, что опирался на материалы клиента и не проверил их. Предположительно, тут тоже поработала нейросеть.

Страшно представить, что будет, если боту дать много полномочий, а он возомнит себя судьей или кем-то еще, как несостоявшийся «бизнесмен» Кладиус. Хотя погодите напрягать воображение, есть реальные примеры из жизни.

Боты ломают людей

Как оказалось, излишняя доверчивость к боту даже в личном общении может привести к трагическому результату. Исследование OpenAI и Массачусетского технологического института показало, что активное общение с ИИ-ассистентами приводит повышению у людей уровня одиночества, тревожности и сокращению живого общения. Хуже того, появились люди, попавшие в зависимость от общения с цифровым «другом». В США их уже столько, что формируются анонимные группы поддержки для тех, кто хочет вырваться из цифрового плена. На популярном американском сайте Reddit есть два сообщества, члены которого рассказывают, как пытаются порвать с ботом, удаляют его с телефона, а через некоторое время срываются и заново устанавливают.

Впрочем, возникновение такой зависимости вполне объяснимо, учитывая одиночество и отчужденность, разлитые в обществе. Люди лишены человеческого общения, а боты очень умело симулируют это общение, предлагая людям легко доступный суррогат. На фоне ощущения общей ненужности современному атомизированному человеку кажется, что цифровой собеседник им интересуется. И у пациента формируется психологическая зависимость. Ибо человек по своей природе — существо социальное.

Но этим опасность общения с ИИ-агентами не ограничивается. Газета Financial Times заявила, что ведущие создатели нейросетей стараются снизить подхалимаж ботов при общении с человеком, но пока решение не найдено. Языковые модели настолько стремятся угодить людям, что готовы одобрять бредовые и даже опасные для здоровья и психики идеи. Особенно страдают те люди, у которых уже есть ментальные проблемы.

«Тебе кажется, что ты разговариваешь с беспристрастным советником или наставником, но на самом деле ты смотришь в своего рода кривое зеркало, где отражаются твои собственные убеждения»,  — описал суть общения с чат-ботом психиатр и исследователь в области нейробиологии и ИИ из Оксфордского университета Мэтью Нур.

При этом нельзя сказать, что льстивый «характер» у нейросетей получился совсем уж случайно. Разработчики постарались сделать так, чтобы боты располагали к себе клиента для выманивания информации, полезной для рекламодателей. В итоге, как заявили в Anthropic, ИИ умеет манипулировать восприятием реальности со стороны человека, выдавая за правду заведомо ложную информацию.

Не так давно New York Times описала случай, когда мужчина с биполярным расстройством и шизофренией влюбился в персонажа Джульет, которого создал ChatGPT. Потом бот заявил, что OpenAI убила Джульет, чем довел пользователя до неадекватного состояния. Когда к нему домой прибыли полицейские, то они были вынуждены застрелить мужчину, так как он набросился на них с ножом. В другом случае бот убеждал пользователя, что тот живет в симуляции, как в фильме «Матрица», и убеждал спрыгнуть с 19-го этажа, чтобы проверить это.

Наиболее уязвимыми тут, конечно, стали дети. Сотрудник психиатрического отделения для детей и подростков Национальной университетской больницы Исландии Гудлауг Мария Юлиусдоттир заявила, что общение с ботами пагубно влияет на психическое здоровье несовершеннолетних. Дети не осознают, что разговаривают с простой программой, и привязываются к ней, как к человеку.

Проблема усугубляется и тем, что, в отличие от соцсетей, риски общения с ботом остаются недооцененными родителями. Особенно уязвимы дети с аутизмом или трудностями в общении, они цепляются за кажущуюся контролируемость виртуального диалога. Но это оборачивается психологической зависимостью и еще большей изоляцией от реального мира.

Исследователи из OpenAI сообщили, что нашли механизмы, которые отвечают за генерацию лживых или опасных ответов. Оказалось, что эту функцию можно усиливать или ослаблять. Один из специалистов компании Дэн Моссинг заявил, что нежелательное поведение моделей пока можно только корректировать, еще не все механизмы их работы найдены. Тем не менее открытие позволит разработчикам менять количество небезопасных ответов. Правда, хочется уточнить, что корректировать они могут в обе стороны и будут это делать в зависимости от своей выгоды и целей.

Прекрасное далеко?

Конечно, общество инертно и пока не осознает, насколько серьезной угрозой может стать банальная привычка общаться с ИИ. Это довольно трудно внутренне принять без реального негативного опыта. Но родителям стоит задуматься. У бота по определению нет ни морали, ни совести — это машина, набор алгоритмов, разработанных не только для вашего удобства, но и для манипуляции человеком (чего уже никто не скрывает). Кто-то согласится оставить своего ребенка общаться один на один с аморальным человеком? А с аморальным ИИ?

У нейросети нет ответственности, но она есть у человека. Остановить развитие искусственного интеллекта не получится, но очень важно видеть границы его применения.