50% пользователей не доверяют ИИ и вот почему: исследование
Глобальное исследование, проведенное KPMG совместно с Университетом Мельбурна (Австралия), показало, что хотя 72% опрошенных считают ИИ полезным инструментом, половина из них не доверяет его точности. Опрос охватил 48 340 человек в 47 странах, изучая отношение к искусственному интеллекту (ИИ), уровень его принятия и использования.
Недоверие к ИИ объясняется, прежде всего, опасениями по поводу безопасности, возможного неправильного использования и недостаточного регулирования. Более половины респондентов (54%) заявили, что относятся к ИИ с осторожностью, а 70% поддерживают введение более строгих правил. Только 43% считают существующие законы адекватными, а 76% выступают за международное регулирование.
Отношение к ИИ зависит и от уровня экономического развития стран:
в развивающихся странах ИИ доверяют 57%, принимают — 84%.
в развитых экономиках доверие ниже — 39%, принятие — 65%.
Проблема подготовки и знаний

Лишь 39% респондентов прошли обучение по ИИ (на работе, в школе или самостоятельно), и только 52% уверены в своем понимании его работы. Те, кто обучался, оценивают его эффективность выше:
76% против 56% среди не обучавшихся.
55% отметили рост дохода благодаря ИИ (против 34%).
На рабочих местах 58% сотрудников используют ИИ регулярно, чаще всего — бесплатные генеративные инструменты (GenAI). При этом фиксируется не только рост производительности, но и ухудшение командной работы и роста нагрузки. Отсутствие регулирования и слабая подготовка управленцев приводят к злоупотреблениям.
В образовании 83% студентов применяют ИИ, в основном — для повышения эффективности и снижения стресса. Однако только половина учебных заведений предоставляет обучение и политику ответственного использования, что вызывает беспокойство по поводу злоупотреблений.
Разрыв в доверии к ИИ наблюдается и среди профессионалов.
Лишь 36% ИТ-лидеров регулярно доверяют выходам ИИ.
Только 38% компаний улучшают качество обучающих данных.
По словам автором исследования это небезосновательно:
Модели ИИ часто «галлюцинируют» — выдают вымышленные ответы как факты. По данным OpenAI, модель GPT o3 ошибалась в 33% случаев на тестах PersonQA и в 51% — на тестах SimpleQA. Модель o4-mini показала еще более высокие показатели галлюцинаций: 41% и 79% соответственно. Даже новая GPT-4.5 допускала ошибки в 37,1% случаев на SimpleQA.
Как отметил Брэндон Перселл, аналитик и соавтор, галлюцинации — не ошибка, а особенность больших языковых моделей (LLM).
«Чтобы ИИ меньше придумывал и ошибался, его нужно "привязывать" к проверенным источникам информации — например, с помощью технологий, которые позволяют находить и использовать реальные данные из внешних баз», — объясняет он.
По словам Джейсона Харди, технического директора Hitachi Vantara, проблема усугубляется, когда модели полагаются на некачественные или неконтролируемые данные.
«Малейшая ошибка в ранней фазе логики может привести к критическим неточностям», — предупреждает Харди.
На этом фоне набирают популярность малые языковые модели (SLM). По данным исследования, их использование может вырасти на 60% в 2025 году. Они более точны, дешевы и эффективны для узкоспециализированных задач.
Исследователи советует компаниям тщательно проверять ИИ-системы на каждом этапе — до запуска, во время работы и после. Это можно делать с помощью специалистов или других ИИ. Особенно важно тестировать критически важные системы, например, в медицине — как это делают с беспилотными автомобилями в симуляциях, прежде чем выпустить на дороги.