ИИ в службе поддержки: как вырастить алгоритм, который понимает с полуслова

Прогнозы обещают, что внедрение технологий в ближайшие 20 лет буквально создаст новую реальность. Но какой она будет?

##Как ИИ становится помощником бизнеса

На пути к технологически развитому обществу человечеству предстоит решить много дилемм, в том числе определить степень участия ИИ в жизни человека. При этом абсолютно точно можно прогнозировать — государственные системы и бизнес-структуры перейдут к массовому внедрению алгоритмов ИИ.

Это позволит автоматизировать рутинные операции, освобождая людям время для решения более сложных и творческих задач — и при этом будет экономить ресурсы за счёт оптимизации их использования.

С помощью инструментов ИИ бизнес сможет улучшить качество взаимодействия с клиентами. Чат-боты и «умные» ассистенты уже сегодня обеспечивают круглосуточную клиентскую поддержку, быстро дают ответ на вопросы пользователей и учитывают персонализированные рекомендации.

Там, где раньше вам отвечал человек, сейчас с большой долей вероятности на связь выйдет виртуальный помощник.

И, судя по клиентскому опыту, с типовыми задачами он справляется, а для более сложных все ещё требуется человек.

Популярные генеративные нейросети вроде GPT-4 и других перерождаются в идеальных виртуальных помощников. Таким найдётся место в любой области, где используется специфическая информация, от технической поддержки до юридических задач. Масштабы их потенциального применения впечатляют.

Действительно ли алгоритмы приблизились к новой ступени эволюции? Давайте разберёмся на примере технологии Retrieval-Augmented Generation (RAG).

Что такое RAG

Даже если аббревиатура RAG вам не знакома, вы абсолютно точно имели дело с этой технологией. Например, когда писали в бот службы доставки или делали запрос о наличии товара на сайте маркетплейса.

За несколькими буквами RAG скрывается подход в области искусственного интеллекта, который сочетает в себе извлечение информации (retrieval) и генерацию контента на её основе (generation).

Представьте: модели ИИ получают актуальные данные из внешних источников, обрабатывают их и выдают ответ. За счет развития RAG-технологии «умные» помощники эволюционировали в действительно удобный инструмент и успешно работают в банковском секторе, розничной торговле, машиностроении, энергетике, электронике и ИТ.

«RAG — поиск релевантной вопросу пользователя информации и добавление ее в контекст запроса. Человек спросил о конкретной модели телефона, система находит её спецификации и передает в нейросеть вместе с изначальным вопросом», — объясняет принцип, лежащий в основе RAG, сооснователь академии искусственного интеллекта AiAcademy Александр Горный.

Если ещё проще: под единым зонтиком трудятся поисковик и программа, которая может распознавать и генерировать текст (Large language model). Например, пользователь зашел на сайт банка и задает вопрос: «На какие условия получения ипотеки я могу рассчитывать?». RAG ищет актуальные данные во внутренних документах и передает информацию программе, которая выдает информативный ответ.

ИИ в службе поддержки: как вырастить алгоритм, который понимает с полуслова

© Cоздано при помощи нейросети

«На первом этапе производится поиск в базе знаний (это могут быть документы компании, какие-то нормативы, описания товаров): ищется наиболее релевантная информация по вопросу пользователя, — объясняет старший исследователь в области NLP лаборатории искусственного интеллекта компании «Криптонит» Анна Холькина. — На втором этапе задействуется большая языковая модель (LLM): она получает на вход вопрос пользователя и вспомогательную информацию, которую мы нашли в базе знаний по данному вопросу. На основе этой информации модель генерирует ответ и выдает пользователю».

Что появление RAG значит для бизнеса

Создание текстового ответа за счёт доступа к актуальной информации из внешних источников легко вписывается в бизнес-процессы практически в любой сфере.

Это могут быть:

  • чат-боты с RAG;
  • программы, создающие контент в виде маркетинговых материалов или текстовой информации, анализирующие продажи и OKR;
  • помощники, которые занимаются систематизацией и каталогизацией чего угодно.

Логистические компании с помощью RAG-архитектуры научились в разы увеличивать скорость обработки запросов. HR-команды более эффективно работают с подбором персонала. А пользователи всё чаще имеют дело с виртуальными ассистентами и удовлетворены ответами чат-ботов на базе RAG.

Самый важный результат от применения RAG — экономия времени и ресурсов. Такие инструменты ИИ универсальны и тем и хороши.

Отдельное направление RAG может быть связано с обучением и поддержкой сотрудников на основе их профиля и роли в компании. Например, скорость обучения сотрудников колл-центров, которые работают с привлечением «умных» помощников, увеличивается кратно. И результат выражается не только в улучшении пользовательского опыта, а во вполне осязаемых цифрах экономии.

При этом технологии не заменяют людей, а остаются дополнительным инструментом для раскрытия потенциала сотрудника за счёт доступа к информации и скорости её обработки. Человеческий фактор остается незаменимым в ситуациях, где требуются интуиция, эмпатия и способность принимать нестандартные решения. ИИ умеет многое, но не это.

##Как это работает на примере

Примерить на себя возможности сервиса для генерации умных подсказок для операторов контакт-центров предлагает Yandex B2B Tech. Компания запустила Нейросаппорт на основе YandexGPT. Его может протестировать любая компания на платформе Yandex Cloud в закрытом режиме.

В самом Яндексе пилотировали Нейросаппорт на своих же платформах — «Еда» и «Маркет». Результат: решение вопросов пользователей ускорилось на 10–15%, а уровень удовлетворенности клиентов в «Еде» вырос на 15%.

При этом сервис не заменяет операторов, а выступает для них «вторым пилотом», по выражению его создателей. Это снижает нагрузку на специалистов и позволяет им работать в более спокойном темпе, а значит, более эффективно.

ИИ в службе поддержки: как вырастить алгоритм, который понимает с полуслова

© Cоздано при помощи нейросети

«Мы увидели самый большой эффект в автоматизации поддержки. У сотрудников поддержки довольно интенсивная работа, нужно искать много информации и обрабатывать её в короткий срок. При этом есть правила по качеству ответов. И мы подумали, что было бы здорово, если модель подсказывала бы оператору, как можно ответить в конкретной ситуации, понимая весь контекст и задачу клиента», — говорит руководитель направления оптимизации бизнес-процессов на базе YandexGPT Эльвира Морозова.

В компании заявляют, что экономия на бизнес-процессах сегодня приносит миллионы, а в будущем выгоды от RAG станут ещё более осязаемы. При этом Yandex B2B Tech разрабатывает инструменты и профессиональные пользовательские продукты, которые уже сегодня позволяют монетизировать технологии машинного обучения. Обкатывая технологии на собственных бизнес-процессах, Яндекс перенастраивает алгоритмы под задачи пользователя.

Как эволюционирует RAG

Еще несколько лет назад общение с чат-ботами напоминало прослушивание автоответчика, а сегодня они стали умнее, научились улавливать нюансы смысла и лучше понимать контекст обращения пользователя.

При этом модели нуждаются в постоянном дообучении — внесении данных «внутрь», чтобы модель знала их при новом запросе. Если RAG строится на структурированной и актуальной информации, то удается получить впечатляющие результаты.

«RAG особенно важен, когда нужны ответы с самой современной информацией и наилучшим образом учитывающие контекст. Обычно это интерактивные сервисы и справочные системы для быстроразвивающихся технологий, продуктов, развлекательных сервисов», — отмечает комментирует ИТ-эксперт Александр Баулин.

Оглядываясь назад, можно выделить несколько условных этапа развития RAG-технологий.

Перевернули с ног на голову представление о возможностях RAG модели с доступом к внешним знаниям (retrieval-based), которые сочетали в себе поиск информации и генерацию текста.

В 2020 году исследователи из Facebook (принадлежит компании Meta, признанной в РФ экстремистской организацией) объединили поиск информации и генерацию текста нейросетью.

Следующим этапом стало появление ранжирования найденной информации в базе знаний по релевантности, модели научились запоминать запросы и ответы пользователей.

«В общем-то и поисковые системы всегда использовали элементы ИИ. И предшественники LLM — семантические системы — пытались включать поисковые механизмы с обогащением свежей информацией. Однако, автоматизировать этот процесс удалось только с развитием интернета (когда новую информацию стало возможным получать мгновенно) и вычислительной техники (чтобы понять вопрос на естественном языке нужна LLM, требующая ресурсов, которые были недоступны ещё лет 20 назад)», — комментирует Александр Баулин.

Сегодня RAG-модели интегрированы с нейросетями, и это большой плюс. Они быстро адаптировались к бизнес-задачам и могут многое. При этом речь не только о том, чтобы закрыть определенные профессиональные потребности бизнеса, важно добиться реальной экономии благодаря искусственному интеллекту.

А дальше? Дальше больше. Эксперты верят в будущее технологий, которые работают на оптимизацию бизнес-процессов и заточены под массовое использование.