Комментарии 0
...комментариев пока нет
Израильский SkyNET виновна в убийстве палестинских детей.
Теперь можно говорить смело – "Терминатор" больше не научно-фантастический фильм, а почти документальный. Как рассказал Алексей Рогозин вышло очень интересное расследование об израильском военном искусственном интеллекте "Лаванда", применяемом при планировании ударов по Газе.
Если вкратце, то еврейский Генштаб отдал на откуп своей SkyNET выбор целей в Газе и "Лаванда" "не подвела". Та "подумала" и на основании своих алгоритмов определила до 37 000 палестинцев как подозреваемых боевиков, а их частные дома - как цели для возможных воздушных ударов (даже несмотря на то, что вокруг находятся гражданские объекты).
В статье много подробностей, но самое спорное и необычное - это то, что если раньше все списки возможных целей тщательно выверялись спецслужбами Израиле, то после начала кампании в Секторе Газа было принято резко расширить количество целей, включив в них в том числе рядовых деятелей ХАМАС. После этого "Лаванда" начала автоматически "помечать" цели, которые ранее требовали бы серьёзной проверки.
Итоги ее деятельности известны – ХАМАС так и не потерял боеспособности, военная операция не достигла успеха, зато жертвами конфликта в секторе Газа стали 33 545 мирных палестинцев. Ранения получили 76 094 человека.
Исходя из этих данных, можно сказать, что данный ИИ указывал не на глубоко законспирированных бойцов ХАМАС, а на любого, кто возмущался Израилем, например, в соцсетях, став участником геноцида, если вообще не организатором.
Да, возможно еврейский Генштаб вбросил данную историю, чтобы переложить всю ответственность на машину, но если эта история хоть на 50% правдива, то мы сегодня воочию, на примере палестинцев, увидели "Дивный новый мир" будущего, где ИИ, которому во многих государствах, включая наше, планируют передать функции власти. Мир, где человек – функция, притом низшего порядка, в работе ИИ.
Бездушная машина, следуя логики своих алгоритмов, которые может "понять" по своему, может, например, устроить геноцид стариков, дабы сохранить пенсионных фонд. Не может? Это расскажите палестинским детям, которых объявили террористами не пойми за что и пометили их целями для авиаударов.
У ИИ нет совести, нет сожаления и ужаса от содеянного. У нее нет души – есть только алгоритм и конечный результат, который надо получить любым способом. Притом, в случае с "Лавандой" конечный результат провалился, зато количество жертв запредельно.
Telegram
Алексей Рогозин ✈️🚀🏗️
Вышло очень интересное расследование об израильском военном искусственном интеллекте "Лаванда", применяемом при планировании ударов по Газе. По словам авторов материала, его влияние на операции было таково, что военные, по сути, относились к результатам работы программы ИИ "как если бы это было человеческое решение", без дополнительных проверок. Источники сообщили, что в первые недели войны армия Израиля почти полностью полагалась на "Лаванду", которая определила до 37 000 палестинцев как подозреваемых боевиков, а их частные дома - как цели для возможных воздушных ударов (даже несмотря на то, что вокруг находятся гражданские объекты). В статье много подробностей, но самое спорное и необычное - это то, что если раньше все списки возможных целей тщательно выверялись спецслужбами Израиле, то после начала кампании в Секторе Газа было принято резко расширить количество целей, включив в них в том числе рядовых деятелей ХАМАС. После этого "Лаванда" начала автоматически "помечать" цели, которые ранее требовали бы серьёзной…