Комментарии 0
...комментариев пока нет
У искусственного интеллекта часто происходят галлюцинации. Google в прошлом году выпустил инструмент искусственного интеллекта, генерирующий изображения женщин-пап и чернокожих викингов. Он подвергся критике за предоставление ложных данных и опасных советов.
В одном случае проект Google AI Overviews посоветовал добавить клей в соус для пиццы, чтобы сыр лучше держался. В другом случае выдумал афоризм «Барсука дважды не лизнешь» и назвала его популярной идиомой.
Галлюцинации усугубляются из-за неавторитетных источников в половине случаев. Искусственный интеллект суммирует информацию из результатов поиска разных сайтов и представляет свой собственный ответ вместе с несколькими ссылками.
Судя по всему, Google преуменьшает собственный уровень галлюцинаций. Сам ИИ утверждает, что частота галлюцинаций составляет от 0,7% до 1,3%. Однако данные платформы мониторинга ИИ Hugging Face показали, что реальный показатель для последней модели Gemini составляет 1,8%.
Но это проблема на только Google. Недавно OpenAI признала, что ее новейшие модели, известные как o3 и o4-mini, галлюцинируют даже чаще, чем более ранние версии. Внутреннее тестирование показало, что o3 выдумывал информацию в 33% случаев, тогда как o4-mini делал это в 48% случаев, особенно при ответах на вопросы о реальных людях. @banksta