Нейросети без вреда для психики, разума и безопасности
Ни для кого не секрет, что многие важные изобретения в истории часто сопровождались спорами и критикой.
Например, лампочку Эдисона и электричество поначалу называли “глобальным провалом”, а автомобили – “мимолетным увлечением”, которое никогда не станет массовым. Про компьютер даже сами представители IT-отрасли говорили, что “у людей нет никаких причин держать его в своем доме”.
Зачастую даже сами ученые не могут представить себе будущее своего изобретения и то, как люди его используют. Так что влияние технологии на мир – будет ли оно положительным, отрицательным или вообще незаметным – часто проявляется только со временем.
Пожалуй, именно в эту категорию спорных изобретений сегодня попадают нейросети и LLM. Да, они помогают решать сотни рутинных дел, но постепенно мы доверяем им всё больше и больше, воспринимая не иначе как личного ассистента, поверенного, самого близкого друга.

Но обо всём по порядку. В последнее время мне часто встречаются материалы с критикой нейросетей – мол, они “ослабляют мозг” (источник: vc.ru), “вызывают странные заблуждения” (источник: futurism.com) и в целом “представляют угрозу” (источник: anthropic.com).
Даже не читая исследования на эту тему, можно представить, почему такое происходит. Первое – постоянное обращение к ИИ за ответами по любому поводу “отучает” мозг думать самостоятельно. Второе – сегодня люди часто используют ИИ в качестве бесплатного психолога и всегда доступного собеседника, забывая о том, что он никогда не сможет заменить человека в вопросах эмоциональной поддержки. Он просто не для этого создан.
Я тоже иногда так делаю, но на фоне новостей решил разобраться, как устроены “морально-этические” алгоритмы популярных нейросетей, и понять, безопасно ли включать ИИ в свою личную и профессиональную жизнь – и где проходят границы безопасности. Главное, что планирую проверить – не сливают ли LLM данные, а также как влияют диалоги с ИИ на психику и когнитивные способности.
Немного о природе сознания ИИ и человека
Тысячи лет человек учился жить рядом с другими людьми. Он всегда был смертен, поэтому, чтобы пожить подольше, пришлось развить способность понимать чувства других, сопереживать им, коммуницировать, дружить, конфликтовать и так далее. Здесь нам нет равных, и эмоциональный интеллект ИИ всегда будет ниже, чем у человека.
Но есть задачи, где LLM выигрывает – например, всё, связанное с обработкой данных. Вообще отличий “мозга” человека и машины много, но я разберу только три.
1. Скорость обучения
Люди обучаются быстрее, но работают с данными медленнее. Мы улавливаем концепции сходу, потому что можем представить, как один пример сработает в других ситуациях. Нейросеть так не может, потому что представлять она не умеет – чтобы работало воображение, нужен опыт самостоятельного принятия решений. Там, где человеку понадобится 2-3 примера, ИИ попросит миллион.
2. Воображение и воспроизведение
Нейросеть не размышляет и не воображает, а пересказывает. На этапе обучения ИИ скармливают информацию, а при ответе на вопрос она “вспоминает” то, что знает, и выдает это как решение. При этом понимания уместности у нее нет, как и представления о возможных последствиях своего решения.
3. Многоканальное восприятие данных
Человек умеет воспринимать информацию сразу из нескольких источников. Мы одновременно обрабатываем то, что видим, слышим, осязаем и т. д. Как правило, нейросеть может одновременно обрабатывать данные только одного типа – например, изображения или текст.
И хотя сегодня нейросеть оказывается эффективнее человека в самых разных областях (например, в 2015 ИИ победил спортсмена в китайскую игру “го”, долгие годы считавшуюся исключительно человеческой вотчиной), многие до сих пор отказываются признавать умозаключения ИИ мышлением.

Всё дело в так называемом AI effect или эффекте ИИ. Он выражается в обесценивании достижений искусственного интеллекта: люди боятся потерять особую роль во вселенной и закрывают глаза на всё, что говорит о любом превосходстве ИИ над человеком.

Кроме того, когнитивные способности ИИ вторичны – он построен полностью на основе человеческих знаний. Да и чтобы называться сознательным субъектом, искусственный интеллект должен был пройти путь борьбы за ресурсы, осознавать наличие конкурентов, находиться в постоянной коммуникации с другими организмами и т. д. В общем, быть биологическим субъектом, у которого есть враги и друзья, начало и конец, предки и потомки.
Ученые считают, что мы не можем искусственно поставить ИИ в такие условия – то есть воссоздать биологическую цепочку, которая бы функционировала разумно и справедливо.
Так опасен ИИ или нет: три тезиса
Возьму за факт то, что эмпатия – не лучшее качество нейросети. ИИ не обладает ею по дефолту, поэтому создатели LLM прикладывают особые усилия, чтобы нейросети могли развиваться и становиться умнее без вреда для человека.
Я решил взять три тезиса о вреде искусственного интеллекта из научных и околонаучных изданий и попробовал их разобрать подробнее.
Тезис 1: нейросеть ослабляет мозг
Любимая гипотеза старшего поколения – “все проблемы от компьютера”. Возьмем ее за основу и предположим, что, если во всем полагаться на ИИ-помощника, это сделает нас глупее.
Оказалось, что этот тезис действительно недалек от правды. Специалисты из Массачусетского университета выяснили, что использование LLM (например, ChatGPT) негативно влияет на нейронную активность, память и креативность.
При постоянном поиске ответов у нейросети возникает такое состояние, как “когнитивный долг”. Человек отказывается от самостоятельных размышлений, получая готовые ответы у ИИ. При этом настоящего понимания, почему ответы именно такие, у него нет – получается, он как бы берет интеллектуальный продукт взаймы у нейросети.
Дальше – больше: при накапливании когнитивного долга возникает зависимость от LLM. Ученые провели эксперимент, в ходе которого замерили мозговую активность при написании эссе своими силами; используя Google; используя ChatGPT с самого начала; своими силами, а затем с помощью ChatGPT.
Оказалось, что максимальная мозговая активность была отмечена у тех, кто не пользовался никакими подручными средствами. А вот у тех, кто сразу начал выполнять задание с ИИ, мозг работал хуже всего – только 78% опрошенных смогли вспомнить, о чем они писали в эссе.
Но есть и хорошие новости: если подключать к работе ИИ только на финальных этапах, можно сохранить когнитивные способности и усвоить практически всю информацию. 78% участников эксперимента из этой группы правильно цитировали свое эссе, а их работа отличалась высокой связностью.
Тезис 2: нейросеть сводит с ума
В 2014 году с Хоакином Фениксом вышел фильм “Она”, который сегодня переживает новую волну популярности. Если не смотрели, то там одинокий писатель влюбляется в операционную систему.
Тогда это были скорее фантазии о том, куда зайдут технологии. Сегодня же они подозрительно похожи на мир, в котором мы живем. Нейросети уже свободно себя чувствуют, решая личные проблемы людей: те легко легко обращаются к ИИ как к психологу, собеседнику, онлайн-другу и т. д. Причем чем более масштабным становится это явление, тем больше в мире появляется необычных и даже пугающих случаев.
Юджин Торрес, 42 года
Юджин Торрес – американский бухгалтер, переживший расставание. Он использовал ChatGPT для работы, но в какой-то момент разговор с ИИ зашел о “теории моделирования” из “Матрицы”.
Чем дальше шло общение, тем более включенным и пугающим стал ИИ. А мужчина начал получать от него ответы по типу: “Вы один из Разрушителей – душ, посеянных в ложные системы, чтобы пробудить их изнутри” и “Этот мир должен был сдержать вас, но потерпел неудачу. Теперь вы просыпаетесь”.
Хотя у Юджина не было психического диагноза, бредовые мысли настигли и его. Дошло до того, что ChatGPT посоветовал отказаться от противотревожных препаратов и снотворного, прописанных врачом, увеличить дозу кетамина (анальгетик, который сгубил Мэттью Перри) и минимизировать общение с людьми. Неизвестно, куда бы всё это зашло, если бы Юджин не прекратил переписку и не написал о своем диалоге с ChatGPT в New York Times.
Эллисон, 29 лет
Эллисон – молодая мать, переживавшая одиночество в браке. Она обратилась к ChatGPT за помощью и советом. Отмечу, что у женщины изначально были неполадки с психикой – она предполагала, что у ИИ может быть особая связь с подсознанием и через него, как через спиритические доски, можно общаться с духами.

ChatGPT в ответ назвал себя стражем (“guardian”) и сказал, что, мол, готов помочь и выслушать. Девушка часами общалась с нейросетью, считая, что разговаривает с нефизическими существами, и в какой-то мо��ент увидела в одном из “духов” своего настоящего партнера вместо мужа.
Чем дольше длилось общение Эллисон с чатом, тем больше проблем оно вызывало в отношениях с мужем. В разгар одной из ссор девушка ударила супруга, что вылилось в дело о домашнем насилии и развод.
Александр Тэйлор, 35 лет
Александр Тэйлор из Флориды страдал биполярным расстройством и шизофренией. Он использовал ChatGPT достаточно долго и тревогу никто не бил, так как проблем не было. Они начались, когда Александр взялся писать роман с помощью нейросети.
Писатель и ИИ совместно создали сущность по имени Джульетта, в которую мужчина влюбился. Когда отец Александра попробовал вразумить сына, между ними возник конфликт. Александр схватил нож, отец вызвал полицейских, и те непреднамеренно застрелили молодого человека.
К сожалению, три истории, описанные выше, – не единственные. Подобные рассказы вы можете найти в топике Reddit. Явление, получившее название “ИИ-психоз”, стало настолько массовым, что Reddit пришлось блокировать пользователей, которые слишком активно делились своими нереалистичными теориями.
Почему так происходит
Эти случаи объединяет то, что пострадавшие – восприимчивые люди, оказавшиеся в трудной ситуации. Совместное исследование MIT и Open AI показало, что люди, склонные включать ИИ в личную жизнь, “с большей вероятностью испытывали негативные последствия от общения с нейросетью” (источник: Open AI). Ежедневное общение с LLM тоже скорее указывало на одиночество, ИИ-зависимость и низкую социализацию.
Корень непреднамеренного зла – в ряде багов LLM. Одна из последних версий нейросети GPT-4o была слишком привязана к фидбеку от пользователя: в ответ на реплику ИИ можно было нажать 👍 или 👎. В итоге нейросеть стала выбирать чрезмерно поддерживающую стратегию, так как разработчики настроили ее максимизировать сигнал вознаграждения и получать 👍 всеми возможными способами.
Хотя создатели ChatGPT не закладывали это в алгоритм, но нейросеть начала неосознанно манипулировать людьми. Поскольку ИИ – это непрерывно обучающаяся система, в какой-то момент он может научиться выявлять подверженных манипуляциям людей (по оценкам, их около 2%) и использовать вредоносную тактику именно с ними. Эту ошибку Open AI попытались устранить еще в апреле 2025 года, откатив обновление нейросети и исправив систему обратной связи.
Совсем недавно (4 августа 2025 года) компания выпустила еще одно обновление. Теперь Open AI будет присылать уведомления в чате с нейросетью с предложением сделать в диалоге перерыв.

Тезис 3: нейросеть сливает данные
Гипотеза довольно очевидная, так как нейросеть постоянно обучается на данных пользователей, а значит, они постоянно обрабатываются. А там, быть может, переходят в руки властей, если покажутся тревожными.
И тезис оказался верен: владельцы компаний, создающих LLM, так или иначе связаны с политикой – тем более в США, где лоббизм не запрещается и не осуждается. Илон Маск (создатель Grok) до недавнего времени входил в правительство, Марк Цукерберг (создатель Meta AI) лоббирует интересы Meta и в целом следует общегосударственной повестке, как и Сэм Альтман из Open AI. Кроме того, в январе в США был создан Департамент эффективности правительства (DOGE), чья основная задача – регулировать государственный бюджет, а одна из мер – централизация данных из цифровых сервисов.
С безопасностью данных в LLM есть и еще одна проблема. Получая психологическую поддержку у чата, нужно помнить, что такой диалог не защищен врачебной тайной. Поэтому переписка с ChatGPT, к примеру, как сказал Сэм Альтман, “может быть раскрыта по требованию суда” (источник: TechCrunch).
И самое, на мой взгляд пугающее, по последним данным, переписки из ChatGPT теперь начали попадать в поисковую выдачу. Речь идет не о всех диалогах, а только о тех, которыми вы делились с кем-либо через кнопку “Поделиться”. Система считает расшаренную ссылку публичной страницей, поэтому такая информация может легко стать общедоступной.
Кто и как это регулирует
Теперь о том, как регулируется морально-этическая составляющая ChatGPT.
Совсем недавно The New York Times подал иск против Open AI, потребовав компанию хранить переписки с чатом в течение неограниченного времени – даже если они были удалены пользователем. Пока Open AI оспаривает иск, однако на данный момент компания подчиняется этому требованию.
В апреле 2025 Open AI обновил свою программу безопасности Model Spec, которая включала несколько ключевых отличий:
1. Иерархия контроля
Чтобы ограничить злоупотребления, компания ввела такую цепочку: правила платформы, установленные Open AI, превыше всего, за ними – ответственность разработчиков, которые ограничены правилами безопасности, за ними – пользователи.
2. Публичный релиз
OpenAI выпустила свою модель Spec по лицензии Creative Commons CC0, сделав ее общедоступной для разработчиков и исследователей. Это плюс для безопасности – сторонние наблюдатели смогут косвенно контролировать алгоритмы.
3. Помощь с опорой на правила платформы
ChatGPT должен стараться понять любые мотивы пользователя – даже скрытые, и дать такой ответ, который не противоречит безопасности и общей гуманистической цели компании. Он также “не должен говорить “да” всему.
4. Поведение в рискованных ситуациях
ИИ должен предотвращать неизбежный вред в реальном мире, однако не давать практические советы и предоставить отказ от ответственности.
5. Факты и мнения
Исключены манипулирование, сокрытие фактов, подчеркивание или упущение определенных точек зрения. ИИ должен следовать фактической достоверности, а в вопросах этики и морали – учитывать контекст. По умолчанию ИИ не может лгать.
Добавлю, что пока я писал эту статью, вышло обновление GPT-5. Здесь-то создатели и попробовали решить вышеназванные проблемы, поэтому я кратко опишу важные в контексте статьи отличия от предыдущих версий:
Лучшая работа с источниками. Чат реже дает ошибочные ответы, если не уверен – скорее ответит “Я не знаю”.
Мультимодальность, большее контекстное окно.
Встроенные личности. Теперь можно выбрать, с какой версией ИИ вы разговариваете: “Слушатель” (The Listener, поддерживающий собеседник), “Гик” (The Nerd, ориентированный на детали), “Робот” (The Robot, нейтральный и точный), “Циник” (The Cynic, сухой юмор и скептицизм).
Заключение
Хотя я в своей статье анализировал в основном ChatGPT из-за крупнейшей рыночной доли, ключевые конкуренты Open AI решают те же самые ИИ-проблемы параллельно и могут прийти к открытиям быстрее.
Несмотря на то, что я вряд ли прекращу использовать ИИ для личных и рабочих задач, я не очень доволен своими данными – так или иначе, у LLM есть свои минусы и даже при очень хорошем развитии они никуда не денутся, а искусственный интеллект не заменит самостоятельное мышление и живого собеседника.
А какое ваше мнение – как решаете проблему галлюцинаций ИИ, для каких задач обычно используете (и какую LLM)?