Нейросети создают вымышленные факты из-за особенностей построения и обучения языковых моделей, заявили эксперты ВТБ.
Аналитики ВТБ объяснили, что нейросети создают вымышленные факты из-за особенностей построения языковых моделей. Ответы формируются не на понимании, а на вероятностных связях в обучающих данных, поэтому при нехватке информации модель «додумывает» детали. Ограничения выборки и невозможность проверки фактов в реальном времени усиливают риск ошибок, особенно в редких или специфических областях, передает ТАСС.
В ВТБ подчеркнули, что так называемые «ИИ- галлюцинации» способны повлечь финансовые и репутационные риски для бизнеса и затруднить работу пользователей.
По словам руководителя направления ИИ-решений ВТБ Льва Меркушова, модель не проверяет факты, а подбирает наиболее вероятный ответ, в результате ошибки выглядят правдоподобно, но вводят в заблуждение.
Для снижения числа «ИИ-галлюцинаций» необходимо четко формулировать запросы и проводить проверки результатов человеком, полагает Меркушов.
Кроме того, Алексей Пустынников из ВТБ считает важным фильтровать исходные данные и включать в обучение только проверенные источники, хотя это увеличивает стоимость создания моделей.
В пресс-службе банка добавили, что в ВТБ применяют каскадные решения, где несколько моделей корректируют друг друга. Такой подход используется в задачах распознавания речи, прогнозирования операций банкоматов и создании интеллектуального поиска по корпоративным данным.
В банке подчеркнули, что внедрение ИИ требует ответственности, прозрачности алгоритмов и контроля за результатами, чтобы повысить доверие клиентов и минимизировать число ошибок.
Ранее вице-премьер Дмитрий Григоренко заявил, что искусственный интеллект должен применяться во всех отраслях и стать инструментом ускорения экономики.
В России предложили создать экспертный орган по искусственному интеллекту в сфере контента.
Российские ученые разработали систему, которая позволяет искусственному интеллекту определять причину инфаркта за миллисекунды.