Искажённая реальность: Несмотря на рекламу и широкое распространение, некоторые инструменты на основе ИИ совсем не готовы для использования. Например широко рекламируемый Whisper от OpenAI. Инженеры, исследовавшие его работу, говорят о крайне высоком проценте галлюцинаций. Цифры разнятся, но оны вызывают большие опасения: в первом исследовании выявлены ошибки в восьми из каждых десяти аудиотранскрипций; во втором примерно в половине из более чем 100 часов расшифрованных аудиозаписей; в третьем исследовании галлюцинации найдены почти в каждой из 26 000 транскрипций.

Конечно в своей рекламе OpenAI добавляют ремарку о том, что не следует использовать в «областях высокого риска», но при этом описывает ИИ как обладающий «надёжностью и точностью, близкими к человеческому уровню». Несмотря на все предупреждений продукты на базе Whisper используются по всему миру в Медицинских центрах, где при расшифровке консультаций появляются диагнозы и процедуры, которые даже не упоминались врачом или пациентом. Но создание субтитров для глухонемых ещё коварнее - они даже теоретически не смогут определить галлюцинацию, в которой ИИ добавил расистские комментарии, которых не было в оригинале. При этом Whisper интегрирован в некоторые версии флагманского чат-бота OpenAI ChatGPT и является встроенным предложением в облачных вычислительных платформах Oracle и Microsoft.
@ksatati_p

AP News
Researchers say an AI-powered transcription tool used in hospitals invents things no one ever said
Whisper is a popular transcription tool powered by artificial intelligence, but it has a major flaw. It makes things up that were never said.