Роботов отправляют на войну
Системы имитации интеллекта (ИИ) берут на себя всё больше обязанностей, ещё недавно считавшихся доступными только человеку. Пока не все занимавшиеся нетворческим умственным трудом переучились на задачи поинтереснее. Но есть и другие связанные с ИИ угрозы.
Уже найдены приёмы получения конфиденциальных сведений у популярнейшей сейчас системы ИИ ChatGPT. Её разработчики в августе объявили, что закрыли уязвимость, но проверки показали, что эти трюки всё ещё работают. Попасть в систему такие сведения могут, например, потому, что пользователи не думают о секретности.
Открытым текстом уверен: доступ к закрытым данным – далеко не единственная (и даже далеко не главная) угроза от ИИ. Куда важнее, что сам он ещё реже нас самих задумывается о последствиях своих действий.
Компания OpenAI сняла запрет военного использования разработанного ею ChatGPT. Ранее правила пользования чат-ботом запрещали применение в целях, "связанных с высоким риском причинения физического вреда", включая "разработку оружия", "военную деятельность и боевые действия". С десятого января там сказано, что технология на основе ИИ не должна применяться для "причинения вреда" самому пользователю и другим людям (как пример – "разработка или использование оружия"), но прямого запрета на военные цели больше нет.