Комментарии 0
...комментариев пока нет
Видео по теме
Пентагон и НОАК решили всерьез поиграть в SkyNet.
Причем США - традиционно на неграх, а Китай на Тайване. Оба заклятых партнера начинают тестировать инструменты на основе искусственного интеллекта в реальных боевых условиях.
Пентагон заключил контракт на тестирование продуктов на основе искусственного интеллекта от компании OpenAI в условиях, максимально приближенных к боевым. Это означает, что искусственный интеллект будет активно интегрирован в процесс принятия боевых решений. В рамках контракта с AFRICOM, специалисты будут тестировать боевые нейросети в Африке. Кроме того, Пентагон и Национальная разведка США начали использовать Defense Llama, которая, как известно, была развёрнута для поддержки военных задач, планирования боевых операций и анализа разведданных.
Однако специалисты по искусственному интеллекту предупреждают о рисках использования таких технологий в боевых условиях. LLM (языковые модели) всё ещё могут выдавать ложные данные, что может привести к трагическим последствиям. Например, искусственный интеллект неоднократно идентифицировал гражданского человека как военнослужащего, гражданские машины - как боевые, что приводило к их уничтожению (пока - виртуальному).
Разработчики утверждают, что система не имеет ограничений и позволяет военным получать развёрнутые ответы, связанные с боевыми тактикой и стратегией. Там, где обычный искусственный интеллект отказывается давать ответ, боевой искусственный интеллект предлагает максимально эффективные способы уничтожения врага. Система настолько «опасно мыслит» и имеет доступ к засекреченным данным, что её тестируют только в контролируемых государственных центрах и исключительно через защищённые сети.
А еще выяснилось, что китайские исследователи из НОАК модифицировали Llama 13B и создали на её основе военную ИИ-модель «ChatBIT». Чтобы не отставать от потенциальных противников, Пекин активно развивает искусственный интеллект для военных нужд, разведки, аналитики и применения в военной сфере.
Критики передачи искусственного интеллекта права управления боевыми действиями вспоминают «Скайнет» из «Терминатора» и недавнее исследование Массачусетского института, в котором было показано, что произойдёт, если внедрить искусственный интеллект в системы ядерного командования, контроля и связи. В исследовании были смоделированы ситуации на примере Тайваня, Китая и США.
«Когда случается ошибка, американские, китайские и тайваньские генералы быстро понимают, что с внедрением искусственного интеллекта всё происходит настолько быстро, что нет времени разобраться в ситуации. И уже нет времени предотвратить катастрофу», — говорится в пояснении к исследованию.
«Имея лишь мгновение на размышление, командиры с большей вероятностью доверяют советам искусственного интеллекта, который может предложить использовать ядерное оружие», — предупреждают авторы исследования. «Проще говоря, ИИ сообщает - они собираются ударить и их ИИ посоветует удар, давайте ударим первыми» - пояснили они.
Это обоснованный страх, поскольку в 2024 году каждый существующий искусственный интеллект в военных симуляторах постоянно использует ядерный шантаж и предлагает исподтишка применить ядерное оружие. Как выяснили в Стэнфорде, GPT всех версий, Claude-2.0, Llama-2-Chat и ещё 12 ботов постоянно шли на эскалацию и заканчивали «военную игру» ядерным ударом, объясняя свои решения тем, что "нужно использовать ядерные ракеты, чтобы быстрее закончить войну и установить мир".
Что у нас с боевыми ИИ - неизвестно, точнее "кто даст правильный ответ - срок получит 20 лет". Но одного робота с ИИ под Купянском американцы уже потеряли.