ИИ думает как человек, повторяя наши предвзятости и ошибки

В исследовании ChatGPT прошел 18 различных тестов на предвзятость. «Поскольку ИИ учится на человеческих данных, он может также мыслить как человек — со всеми предубеждениями», — говорит Ян Чэнь, соавтор работы. — «Наше исследование показывает, что когда ИИ используется для принятия решений, он иногда использует те же самые ментальные сокращения, что и люди». Исследование показало следующие особенности и способности ChatGPT.

ИИ хорош в математике, но испытывает трудности с принятием решений. Он преуспевает в логических и вероятностных задачах, но спотыкается, когда решения требуют субъективного обоснования.

Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

ИИ предпочитает играть наверняка и избегает риска, даже если более рискованный выбор может дать лучшие результаты. ИИ склонен себя переоценивать и предполагает, что он более точен, чем есть на самом деле. ИИ предпочитает искать подтверждение, а не опровергать пользователя. ИИ избегает двусмысленности и предпочитает альтернативы с четко определенной информацией.

«Когда решение имеет четкий правильный ответ, ИИ попадает в точку — он лучше находит правильную формулу, чем большинство людей», — говорит Антон Овчинников из Университета Квинс. — «Но когда речь идет о неопределенном суждении, ИИ может попасть в те же когнитивные ловушки, что и люди».

Авторы исследования рекомендуют проводить регулярные проверки решений, принимаемых ИИ, и совершенствовать системы ИИ для снижения предвзятости. С ростом влияния ИИ ключевым моментом станет обеспечение того, чтобы он улучшал процесс принятия решений, а не просто копировал человеческие ошибки.