Nvidia признала отсутствие здравого смысла у ИИ и привлекла людей для решения проблемы

Nvidia открыто заявила, что моделям искусственного интеллекта в целом не хватает "здравого смысла". Хотя это едва ли станет откровением для тех, кто следит за развитием технологий – любой разумный человек понимает, что клей не стоит добавлять в пиццу, но это не помешало ИИ-обзору Google предложить именно такой рецепт для "дополнительной липкости". Для решения этой проблемы Nvidia решила исправить ситуацию с помощью человеческих наставников.

В недавнем посте Nvidia рассказала, как команда её фабрики данных подходит к обучению генеративного ИИ знаниям о мире, которые люди воспринимают как данность. Группа состоит из аналитиков "различных специальностей, включая биоинженерию, бизнес и лингвистику", которые "работают над разработкой, анализом и компиляцией сотен тысяч единиц данных" в надежде научить модели ИИ Nvidia основам физического мира.

Cosmos Reason – модель искусственного интеллекта, которая должна возглавить эту инициативу. Компания поясняет:

Cosmos Reason уникальна по сравнению с предыдущими моделями визуального языка, так как разработана специально для ускорения развития физического ИИ в таких областях, как робототехника, беспилотные транспортные средства и умные пространства. Модель способна делать выводы и рассуждать в беспрецедентных сценариях, используя физический здравый смысл.

https://www.youtube.com/watch?v=OqsqzPCLvE4

Амбициозные заявления требуют соответствующих решений, и Nvidia выбрала довольно приземлённый подход – серию тестов с вариантами ответов, похожих на школьные контрольные работы для ИИ.

Процесс начинается с того, что группа аннотаторов Nvidia создаёт пары вопросов и ответов на основе видеоданных. В качестве примера компания приводит ролик, где кто-то нарезает пасту. Человек-аннотатор спрашивает ИИ, какой рукой режут макароны. Искусственный интеллект должен выбрать правильный ответ из четырёх вариантов, включая "не использует руки".

Тестирование ИИ по принципу экзамена для студента с обратной связью и исправлением неверных ответов называется обучением с подкреплением. После множества раундов таких испытаний, а также тщательного контроля качества между руководителями команды фабрики данных и исследовательской группой Cosmos Reason, разработчики надеются, что знания о физическом мире закрепятся в модели.

Всё это направлено на создание ИИ-моделей, способных управлять физическими механизмами, например, в заводской среде. Исследователь Nvidia Инь Цуй комментирует:

Без базовых знаний о физическом мире робот может упасть или случайно что-то сломать, создавая опасность для окружающих людей и среды.

Недостаток понимания физических законов регулярно проявляется на соревнованиях гуманоидных роботов, где механические создания демонстрируют неуклюжие манёвры. Учитывая, что широкое внедрение роботов в производство и строительство неизбежно, то разработка рассуждающих ИИ-моделей, способных надёжно взаимодействовать с физическим миром играет огромное значение.