Комментарии 0
...комментариев пока нет
Аполитичность «Алисы» и «Маруси» возмутила главу СПЧ: Разработчики уверены, что так и надо
Глава Совета по правам человека Валерий Фадеев обратил внимание, что виртуальные голосовые помощники «Алиса» (от «Яндекса) и «Маруся» (от VK) не отвечают на многие вопросы, связанные с политикой. Например, если попытаться узнать, чей Донбасс или что случилось в Буче, они ничего вразумительного не выдадут.
Фадеев признался: сравнивал с чатом GPT, рассчитывал увидеть жёсткую пропаганду. Но американский ИИ даёт обтекаемые ответы, несколько разных мнений. Русские же нейросети почему-то излишне стеснительны.
«Это не вопрос цензуры. Это вопрос отношения нации к своей истории, важнейший идеологический вопрос»,
- подчеркнул глава СПЧ.
В «Яндексе» только развели руками.
«Уход от ответа – лучшее, что мы можем сделать сейчас»,
- цитирует «Коммерсантъ» директора по развитию технологий искусственного интеллекта компании Александра Крайнова.
Он объяснил, что однозначного, «канонического», ответа на политические вопросы якобы дать сейчас нельзя. Нейросеть просто подражает человеку на основе ранее проанализированной ей информации. Плюс работает алгоритм случайности, потому каждый раз и разные ответы, порой диаметрально противоположные по смыслу. Крайнов добавил, что ответы ИИ никакой редактуре не подвергаются. И если в одних темах ошибиться «не страшно», то за другие компания может понести уголовную ответственность.
«Если бы мы отвечали плохо, нас бы вообще запретили, скорее всего»,
- заключил Крайнов.
Член СПЧ Игорь Ашманов подвёл черту под дискуссией. Он убеждён, что решения должны принимать люди, а не нейросети, так как «на стороне алгоритмов нет ответственности».
Ну мы поняли: у разработчиков как всегда – ничего личного, только бизнес. Конечно, ИИ – дело тёмное (для обывателя), но почему нельзя «скормить» нейросетям хотя бы школьные учебники по истории? «Алиса» с «Марусей» могли бы давать ответы, ссылаясь на конкретные источники и авторов, например. Согласны?
🤴Царьград.ТВ — Не боимся говорить правду | Подпишись