Глава ИИ-подразделения Microsoft предупредил об опасности наделения искусственного интеллекта правами человека

Когда речь заходит об искусственном интеллекте, в голове часто всплывают образы из "Я, робот", "Бегущего по лезвию" или Cyberpunk 2077. Философия и этика того, чем может стать ИИ, действительно захватывает воображение больше, чем технические проблемы, с которыми мы сталкиваемся сегодня.

В недавнем блог-посте глава ИИ-подразделения Microsoft Мустафа Сулейман поделился своими мыслями о тех, кто выступает за признание сознательности искусственного интеллекта и верит, что однажды люди будут требовать прав для ИИ-систем.

Сулейман развивает идею о том, что ИИ может способствовать особому типу психоза:

Проще говоря, моя главная обеспокоенность заключается в том, что многие люди начнут так сильно верить в иллюзию ИИ как сознательных сущностей, что вскоре будут выступать за права ИИ, благополучие моделей и даже гражданство ИИ. Такое развитие событий станет опасным поворотом в прогрессе ИИ и заслуживает нашего немедленного внимания.

Для многих ИИ вызывает беспокойство отчасти из-за того, насколько уверенно он излагает свои утверждения. Для обычного человека он не только всегда прав, но и всегда готов к разговору. Как отмечает Сулейман в связи с Copilot, это может привести к тому, что пользователи начнут обожествлять чатбота как высший разум или поверят, что он обладает космическими ответами.

Такая обеспокоенность понятна. Достаточно взглянуть на недавний случай с мужчиной, который получил крайне редкое заболевание после консультации с ChatGPT о том, как сократить потребление соли.

Глава ИИ-подразделения Microsoft утверждает, что ИИ никогда не должен заменять человека, а ИИ-компаньоны нуждаются в "ограждениях", чтобы ИИ мог заниматься той работой, которая ему предназначается. Он добавляет, что некоторые учёные изучают идею благополучия моделей, что, по сути, представляет собой веру в то, что мы имеем моральные обязательства перед существами, которые могут обладать сознанием. Сулейман заявляет:

Это не только преждевременно, но и откровенно опасно.

Нам нужно быть ясными: SCAI или кажущийся сознательным ИИ) – это то, чего следует избегать.

По его словам, SCAI представляет собой комбинацию языка, эмпатической личности, памяти, заявлений о субъективном опыте, чувства собственного "я", внутренней мотивации, постановки целей и планирования, а также автономии.

Сулейман также утверждает, что такие качества не появятся в моделях естественным образом.

Они возникнут только потому, что кто-то может их спроектировать, создав и объединив вышеупомянутый список возможностей, в основном используя существующие техники, и упаковав их таким плавным способом, что в совокупности они создадут впечатление SCAI.

Наше воображение, вдохновлённое научной фантастикой, заставляет нас бояться, что система может каким-то образом обрести способности к неконтролируемому самосовершенствованию или обману. Это бесполезная и упрощённая антропоморфизация.

Сулейман предупреждает:

... кто-то из вашего окружения может начать скатываться в кроличью нору веры в то, что их ИИ – сознательная цифровая личность. Это нездорово ни для них, ни для общества, ни для тех из нас, кто создаёт эти системы.

Как завершает Сулейман – мы должны создавать ИИ для людей, а не чтобы заменить им личность.