Разница в цене использования нейросетей достигает 208 раз
Российская платформа для создания ИИ-агентов и автоматизации бизнес-процессов Nodul сравнила стоимость девяти типовых задач: перевод текста на 1000 знаков, копирайтинг на 10 тыс. знаков, обработка обращений поддержки, создание шаблонных документов, работа секретаря, задачи SDR (по поиску потенциальных клиентов), анализ резюме, сводные отчёты, аналитика.
В каждом сценарии рассчитывалась нагрузка в токенах (цифровая единица учёта) — как на вводе, так и на выводе — и стоимость выполнения задачи по тарифам моделей. В исследование вошли YandexGPT Lite/Pro, GigaChat Lite/Pro, а также зарубежные модели: DeepSeek, GPT-mini, GPT-5 и Claude Sonnet.
По итогам исследования выяснилось, что GigaChat PRO — самый дорогой вариант. DeepSeek — самый экономичный.
- копирайтинг: GigaChat PRO — 154,5 ₽ против 0,74 ₽ у DeepSeek (разница в 208 раз);
- оператор поддержки: 15,8 ₽ против 0,08 ₽ (204 раза);
- документооборот: 22,5 ₽ против 0,14 ₽ (160 раз);
- перевод: 1,6 ₽ против 0,009 ₽ (161 раз);
- анализ резюме: 2,7 ₽ против 0,01 ₽ (184 раза);
- обработка лида: 2,25 ₽ против 0,01 ₽ (160 раз).
Российские модели — это дообученные версии мировых нейросетей
Исследование подчёркивает: под «российскими» LLM чаще понимаются не модели, созданные с нуля, а адаптации LLaMA, Qwen, Mistral и других решений. Разработчики дообучают их на локальных данных и размещают в российских дата-центрах.
Главная причина высокой себестоимости — инфраструктура. Из-за ограничений на современные процессоры (GPU оборудование) закупают через посредников с наценкой. Использование зарубежных облаков затруднено из-за запрета передачи персональных данных. Поэтому провайдерам приходится поддерживать собственные дата-центры: сервер для обслуживания 1000 пользователей стоит около 55 млн рублей, без учёта электроэнергии и обслуживания.
«На практике российским компаниям сейчас выгоднее всего либо использовать модели китайских разработчиков (Alibaba, DeepSeek, Kimi, Z. ai) через API, либо разворачивать их (или американского бигтеха) опенсорс-версии в своей инфраструктуре», — подтверждает выводы исследования Nodul источник Russian Business в крупной IT-компании.
GPT-модели подешевели в десятки раз за два года
По данным Nodul, российские провайдеры часто устанавливают одинаковую стоимость входящих и исходящих токенов, тогда как у зарубежных генерация ответа стоит дороже ввода. В сценариях с длинными промптами и короткими ответами — типичных для ИИ-агентов — это приводит к кратному росту стоимости.
Руководитель платформы Yandex AI Studio Артур Самигуллин пояснил, что цена использования модели зависит от стоимости ML-инфраструктуры (оборудование и программные ресурсы, на которых работают нейросети) и её загрузки. Чем выше спрос, тем ниже себестоимость токена.
Артур Самигуллин привёл пример:
- в 2023 году GPT-4 32k стоила $60 (около 4 тыс. ₽ по курсу на 1 декабря 2025-го) за миллион токенов на вход.
- в 2025 году GPT-5.1 ― $1,25 (около 97 ₽).
«Модели Яндекса постепенно проходят тот же путь — YandexGPT 5.1 Pro уже стала втрое дешевле предыдущей модели», — подчеркнул руководитель платформы Yandex AI Studio Артур Самигуллин.
Также он отметил, что исследование Nodul проводилось на устаревшей версии YandexGPT.
Как российским компаниям оптимально использовать нейросети
По словам источника Russian Business в крупной IT-компании, для масштабных бизнесов самым экономичным вариантом остаётся развёртывание китайских или американских опенсорс-моделей на своей инфраструктуре.
Также затраты можно уменьшить, если использовать массовые потребительские GPU, которые подходят для многих прикладных задач и стоят значительно дешевле специализированных решений.
Руководитель платформы Yandex AI Studio Артур Самигуллин отметил, что российские нейросети предпринимаются шаги к снижению стоимости за использование. На примере Alice AI LLM можно увидеть, как компания добилась удешевления: цена за ввод и вывод текста разделена, а улучшенная токенизация русского языка позволяет использовать модель в 1,5–2 раза дешевле опенсорс-решений.