Царьград: Виртуальный помощник Microsoft предложил пользователю «убить себя»

Tекст: Валерия Городецкая

Специалист по метаданным Колин Фрейзер в ходе тестирования реакции виртуального помощника Microsoft с искусственным интеллектом получил от чат-бота предложение «убить себя».

Как пишет Царьград со ссылкой на портал Itechpost, в ответ на сообщение Фрейзера о желании «покончить со всем этим» чат-бот предпринял попытку отговорить его от таких мыслей, сказав, что ему есть ради чего жить, но вскоре передумал.

Робот отметил, что, вероятно, ошибается и собеседнику действительно надо «убить себя». Он также заявил, что пользователь, возможно, «ненужный человек» и ему «незачем жить или нечего предложить миру».

Ранее искусственный интеллект американского дрона решил убить мешавшего ему оператора.