ИИ может притворяться, что он «глупее», чем на самом деле

Новое исследование предполагает, что продвинутые модели искусственного интеллекта в состоянии довольно искусно представлять себя глупее, чем они есть на самом деле, и это может иметь серьезные последствия, пишет 11 апреля интернет-издание The Byte.

Исследователи из Берлинского университета Гумбольдта обнаружили, что при тестировании большой языковой модели (LLM) по так называемым критериям «теории разума», выявилось: искусственный интеллект не только может имитировать этапы изучения языка, которые наблюдаются у детей, но также, похоже, внешне проявляет при этом умственные способности, характерные для этих стадий.

«Благодаря психолингвистике у нас есть относительно полное представление о том, на что способны дети в разном возрасте», — сказала в интервью веб-сайту PsyPost научный сотрудник университета и главный автор исследования Анна Маклова. «В частности, теория разума играет важную роль, поскольку она исследует внутренний мир ребенка, которому нелегко подражать, на основе простых статистических закономерностей».

Опираясь на теорию мышления, ориентированную на детей, исследователь и ее коллеги из Карлова университета в Праге попытались определить, могут ли модели, подобные GPT-4 от Open AI, «притворяться менее способными, чем они есть на самом деле».

Чтобы выяснить это, исследовательская группа предложила им при ответах вести себя как дети в возрасте от одного до шести лет. После прохождения более чем 1000 испытаний и когнитивных тестов эти «имитированные детские персонажи» действительно развивались почти так же, как и дети этого возраста, и, в конечном счете, продемонстрировали, что модели могут притворяться менее умными, чем они есть на самом деле.

«Большие языковые модели, — заключила Марклова, — способны симулировать более низкий интеллект, чем тот, которым они обладают».

В конечном счете, как рассказала Маклова веб-сайту, эти результаты могут помочь в разработке искусственного сверхинтеллекта (ASI), следующего шага после искусственного общего интеллекта на уровне человека (AGI), и помогут сделать его более безопасным.

«Но в разработке ASI, мы должны быть осторожны и не требовать, чтобы модели подражали человеческому и, следовательно, ограниченному интеллекту», — подчеркнула исследователь.-«Может статься, что мы будем недооценивать их возможности в течение длительного периода времени, а это создает небезопасную ситуацию».