Глава Microsoft AI назвал изучение сознания ИИ «опасным» направлением
Генеральный директор Microsoft AI Мустафа Сулейман заявил, что изучение «благополучия ИИ» или возможности развития у него сознания является «преждевременным и откровенно опасным». В своем блоге он высказал мнение, что такие исследования усугубляют реальные человеческие проблемы, такие как нездоровая привязанность к чат-ботам, и создают ненужный раскол в обществе по поводу прав ИИ.

По мере того как ИИ-модели становятся все более человекоподобными, возникает вопрос: могут ли они когда-нибудь обрести субъективный опыт, подобный живому существу? Это порождает дебаты о так называемом «благополучии ИИ» (AI welfare) и потенциальных правах машин. Сулейман считает, что придавать правдоподобность идее сознательного ИИ — значит отвлекать внимание от насущных проблем.
Позиция Сулеймана идет вразрез с мнением многих лидеров отрасли. Лаборатория Anthropic активно нанимает исследователей для изучения благополучия ИИ и недавно наделила свою модель Claude способностью прекращать разговор с пользователями, которые ведут себя некорректно и постоянно оскорбляют алгоритм в чате. Исследователи из OpenAI и Google DeepMind также проявляют интерес к этой теме.
Сулейман утверждает, что сознание не может возникнуть естественным путем в обычных ИИ-моделях. По его мнению, некоторые компании могут целенаправленно создавать ИИ, имитирующий эмоции и жизненный опыт. Такой подход он считает негуманистическим. «Мы должны создавать ИИ для людей, а не для того, чтобы он был личностью», — подчеркнул он.
Несмотря на разногласия, и Сулейман, и его оппоненты сходятся во мнении, что дебаты о правах и сознании ИИ в ближайшие годы будут только нарастать. По мере совершенствования системы станут еще более убедительными и, возможно, более похожими на людей. Это неизбежно поднимет новые этические вопросы о том, как человечество должно взаимодействовать с этими технологиями.