Czy AI wyznacza cele w Gazie?

Śmierć wolontariuszy World Central Kitchen w Strefie Gazy, zabitych przez izraelską armię, wywołała duże poruszenie międzynarodowej opinii publicznej.


04-04-2024


Jerozolima nazywa to zdarzenie „wypadkiem”, a krytycy „zbrodnią wojenną”. Kto ma rację?

Co przytomniejsi komentatorzy zauważają, że zdarzenia takie jak celowe lub przypadkowe uśmiercanie cywilów, wolontariuszy czy dziennikarzy przez siły izraelskie, nie są niczym nowym. Zdarzały się wielokrotnie w przeszłości, o czym pisałem np. w jednym z pierwszych tekstów na Globalnej Grze – „Iustitia nemini neganda” w maju 2018 roku. Różnica polega w zasadzie głównie na dużo większej intensywności związanej z prowadzonymi działaniami zbrojnymi. Ale czy to jedyny powód?

Rozpoczęta 7 października 2023 barbarzyńskim atakiem Hamasu palestyńsko-izraelska wojna, zakończy się prawdopodobnie nie wcześniej niż po zajęciu całej Strefy Gazy przez IDF (Siły Obrony Izraela), do czego już niewiele brakuje. Liczba ofiar wśród cywili ma dla realizującej ten cel Jerozolimy znaczenie całkowicie drugorzędne. Eliminacja Hamasu i podporządkowanie Gazy to coś, na co izraelscy wojskowi i służby od dawna były przygotowane.

Władze w Jerozolimie twierdzą, że bojownicy Hamasu używają obiektów cywilnych (np. szpitali) w roli punktów oporu i baz zaopatrzeniowych, a nieuzbrojoną ludność traktują jak żywe tarcze, często celowo narażając np. dzieci, po to by propagandowo wykorzystać ich zranienie lub śmierć jako dowód na okrucieństwo przeciwnika. To nie tylko wpływa na opinię międzynarodową nastawiając ją przeciwko Izraelowi, ale także stale konsoliduje Palestyńczyków (ich dużą część) we wspieraniu Hamasu. Jest w tej ocenie wiele prawdy, szczególnie że w przeszłości terroryści wręcz zachęcali rodziców do posyłania dzieci pod lufy snajperów, za co oferowano finansowe rekompensaty.

Obserwujący wydarzenia na Bliskim Wschodzie ludzie o zachodniej wrażliwości społecznej często zapominają, jak duże są różnice kulturowe i jak wielkie jest bliskowschodnie przekonanie, że cel uświęca środki. Jednocześnie jest to tylko jedna część obrazu. Drugą stronę medalu stanowi samo państwo Izrael, rządzone obecnie przez siły polityczne o zapatrywaniach skrajnie nacjonalistycznych, syjonistycznych i ortodoksyjnie religijnych.

Ich polityka, którą moim zdaniem można nazwać faszyzującą, została dodatkowo rozpalona masakrą z 7 października i to w stopniu, który zlikwidował wszelkie bariery w stosowaniu tzw. rules of engagement, czyli mówiąc inaczej – zasad walki. Głęboka trauma i chęć rewanżu jest dziś tak powszechna wśród żydowskiego społeczeństwa, że nie ma już mowy o samoograniczaniu i współczuciu. Do tego dochodzi ważąca się przyszłość polityczna Benjamina Netanjahu. Oprócz spraw sądowych obawia się on także odpowiedzialności za zaniechania, które umożliwiły Hamasowi przeprowadzenie najbardziej krwawego ataku terrorystycznego w historii kraju (według danych to 1160+ zabitych, 240+ porwanych).

W tym kontekście, oczywistym jest, że dla syjonistów tak dogodna, historyczna wręcz okazja rozprawienia się z przeciwnikami, a być może także na ekspansję terytorialną, może się długo nie powtórzyć. Dlatego ich polityczny upór jest całkowicie zrozumiały, mimo nieprzychylnej postawy ONZ, licznych wezwań do zawieszenia broni, oraz toczącej się sprawie o ludobójstwo Palestyńczyków przed Międzynarodowym Trybunałem Sprawiedliwości w Hadze. To wszystko wiedza powszechna, jednak uważam, że konieczne jest wzbogacenie jej o jeszcze jeden, bardzo ważny element, który (jeśli zostanie potwierdzony) wytłumaczy mechanizm kryjący się za tak swobodnym użyciem środków rażenia wobec obiektów i osób cywilnych przez IDF.

Nie chodzi tutaj o osobiste decyzje dowódców czy żołnierzy, ale proces automatyzacji wprowadzony przez użycie Sztucznej Inteligencji (AI), o którym w obszernym artykule pt. „‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza” pisze lewicujący, internetowy magazyn „+972” oraz afiliowany przy nim portal „Local Call”.

Według autora artykułu, Juwala Abrahama, IDF korzysta z pomocy AI w desygnowaniu celów ataku dla lotnictwa i armii. Fakt ten potwierdzić miało sześciu anonimowych pracowników izraelskiego wywiadu pełniących służbę podczas obecnej wojny. Według ich relacji, opracowano dedykowane algorytmy, których zadaniem jest analiza zagregowanych i wprowadzonych do systemu danych, a następnie przy użyciu określonych parametrów, wyznaczenie potencjalnych celów do eliminacji. W ten sposób desygnowane są np. budynki, ale także pojedyncze osoby.

W drugim przypadku procesem tym zarządza AI o nazwie „Lawenda”. Pomysł opiera się na szybszym przetwarzaniu danych i usprawnieniu procedury decyzyjnej, w specyficznym dla Palestyny środowisku dużego przemieszania terrorystów z ludnością cywilną. Do niedawna przed podjęciem decyzji o ataku, oficerowie wywiadu prowadzili żmudną analizę i weryfikowali posiadane informacje, w związku z czym ograniczano się do wyznaczania celów jedynie wśród wysokich dowódców Hamasu. Decyzję o ataku, szczególnie taką mogącą powodować straty wśród cywili, podejmowali jedynie wyżsi rangą oficerowie izraelscy. Brak było zasobów ludzkich na podobne wyszukiwanie członków Hamasu o niższej randze w organizacji.

Wprowadzenie „Lawendy” pozwoliło jednak na znaczne poszerzenie tego zakresu, aż do szeregowych palestyńskich bojowników. Specyfika zachowań, np. sposób przemieszczania, wygląd, płeć, odwiedzane lokalizacje, korzystanie z wielu numerów telefonu, wszystko to zwracało uwagę algorytmu jako potencjalne czynniki odróżniające terrorystę od cywila. Każdy element zliczany był do ogólnej punktacji. Im wyższy numer, tym większa pewność, że cel zajmuje się działalnością terrorystyczną. Dla armii była to całkowicie nowa jakość i szansa na zyskanie przewagi w trwającym dekady konflikcie z terrorystami.

Problem w tym, że sztuczna inteligencja nie radziła sobie z przypadkami pośrednimi. Okazuje się bowiem, że w trakcie działań wojennych wielu cywilów często zmienia lub pożycza telefony, aby np. skontaktować się z rodziną. Ruch bywa chaotyczny, a przy dużym zagęszczeniu ludności nietrudno o znalezienie się w pobliżu prawdziwego bojownika. Przesiewowe sprawdzenie działania algorytmu w pierwszym tygodniu wojny dowieść miało, że „Lawenda” błędnie identyfikuje cele w przynajmniej 10% przypadków. Dowództwo uznało jednak, że to akceptowalny margines błędu, zezwalając na jego powszechne stosowanie.

Co gorsza, w przeszłości obowiązywała polityka stanowiąca, że cele mniejszej wagi nie mogą powodować ofiar wśród osób postronnych. Inwazja na Gazę całkowicie zmieniła te rachuby. Odtąd tzw. „szkody kolateralne” (ang. collateral damage) stały się akceptowalne, a wręcz nieuniknione. Algorytm bowiem działał w taki sposób, aby eliminować desygnowanych ludzi w najbardziej dogodnych warunkach. Tak było wtedy, gdy pozostawali dłuższy czas w bezruchu. Najczęściej znajdowali się w domu, śpiąc we własnych łóżkach. Do zabicia szeregowego terrorysty nie opłacało się zużywać broni kierowanej, stąd ograniczano się do tradycyjnych, tanich bomb lotniczych. A te spełniały swoje zdanie jedynie wobec statycznych celów. Razem z terrorystą, zginąć mogły więc całe rodziny.

Rewanżyzm wśród armijnego dowództwa wpływał także na poluźnianie kryteriów algorytmów. Według jednego z rozmówców autora artykułu, w szczytowym momencie system wyznaczył aż 37 000 potencjalnych osób do eliminacji. Wśród nich zaszeregowano także policjantów, czy pracowników obrony cywilnej, nieuznawanych przez wywiad za część Hamasu lub innych grup terrorystycznych. Weryfikację ograniczano jedynie do sprawdzenia czy cel jest kobietą czy mężczyzną. Kobiety uznawano za pomyłkę systemu, jako że nie mogły być oficjalnymi członkiniami Hamasu lub Palestyńskiego Dżihadu. To jednak nie jedyne błędy systemu.

Zdarzały się też cele mające poniżej 17 lat, który to wiek stanowić miał limit. Co ważne, algorytmy nawet skutecznie opracowując listę osób przeznaczonych do eliminacji, nie były w stanie w czasie rzeczywistym analizować czy dana osoba nadal przebywa w określonym miejscu. Mogła przecież zmienić lokalizację, albo zejść do ukrytych pod ziemią tuneli. System mógł też pomylić osoby o takim samym imieniu i nazwisku, albo członków dużych arabskich rodzin. Takie przypadki miały ponoć miejsce.

Ostatecznie, po kilku tygodniach wojny odstąpiono od masowych bombardowań. Po pierwsze, ponieważ ich kontynuowanie zużywało zbyt dużą ilość amunicji. Po drugie, działania wojenne zdążyły zniszczyć dużą część zabudowy, więc początkowa intensywność nie była już konieczna. Wreszcie po trzecie, presja międzynarodowa, szczególnie amerykańska, wymusiła opamiętanie, ale tylko do pewnego stopnia. Jeden z oficerów zdradza, że armia kontynuowała uderzenia na wysokich dowódców Hamasu, nawet jeśli rachunek potencjalnych ofiar postronnych sięgał ponad stu osób.

Podsumowanie.

Jeśli prawdą są podane przez magazyn „+972” informacje, masowe użycie sztucznej inteligencji w bombardowaniach zabudowań miejskich to pierwszy taki przypadek w nowoczesnym konflikcie zbrojnym. W znacznie mniejszym, indywidualnym zakresie algorytmy stosowane są np. na Ukrainie. Dotyczą one jednak obiektów, techniki wojskowej i to głównie w zakresie namierzania i koordynacji prowadzonego ognia. Przypadek Izraela jest pod tym względem szczególny.

Celowe eliminowanie ludności cywilnej nie jest niczym innym jak zbrodnią wojenną, niemniej użycie pozostawionego praktycznie bez nadzoru algorytmu AI rodzi nieistniejący wcześniej dylemat prawny w zakresie bezpośredniej odpowiedzialności za dane zabójstwo. Pilot samolotu lub operator drona naciska guzik zwalniając pocisk, ale często nie ma żadnych danych na temat swojego celu, poza np. wyglądem budynku czy kwartału, widocznym, na wyświetlaczu. Proces oceny i decyzji podejmuje zaś komputer, a nie jego bezpośredni przełożony. Podobny dylemat nie występował np. w procesach norymberskich.

Oczywiście, w szerokim ujęciu odpowiedzialne będzie zezwalające na określoną politykę dowództwo armii oraz izraelski rząd, w tym Benjamin Netanjahu, który powinien dopisać do długiej listy problemów ewentualny proces przed Międzynarodowym Trybunałem w Hadze. Nie zmienia to jednak faktu, pojawienia się nowego kazusu prawnego, który domagać się będzie nowej wykładni prawnej, a być może także uregulowania w ustawach lub umowach międzynarodowych.

Nie wiem, czy użycie „Lawendy” może mieć coś wspólnego ze śmiercią wolontariuszy WCK, w tym Polaka Damiana Sobola, którzy mimo iż informowali IDF o swojej obecności, zostali z mechaniczną wręcz determinacja zabici w trzech, następujących po sobie uderzeniach. Z pewnością dziwne określenie parametrów celu budzi tutaj pewne skojarzenia z opisanymi wyżej przypadkami błędnej identyfikacji. Przy odrobinie szczęścia, wkrótce poznamy dalsze szczegóły tego tragicznego wydarzenia.

Jestem jednak całkowicie pewien, że połączenie skrajnej polityki, z bezwzględnością procesów obliczeniowych jest ziszczeniem się najgorszych koszmarów futurologów. Powstrzymanie Izraela (czy dowolnego innego państwa) od niekontrolowanego stosowania tego rodzaju narzędzi powinno stanowić jeden z elementów międzynarodowej presji.

Użycie „Lawendy” przynajmniej w części tłumaczy nam i potwierdza, skąd wzięła się tak duża liczba ofiar cywilnych wśród ludności palestyńskiej w Gazie.


Niniejsza strona jest wspierana przez Patronów.

Wsparcie łączy się z szeregiem przywilejów (zależnych od wysokości wpłaty), m.in. wieczystym dostępem do zamkniętej grupy dyskusyjnej, wglądem do sekcji premium i upominkami. Chcesz wiedzieć więcej? Sprawdź TUTAJ

Możesz też postawić mi kawę:

buycoffe.to/globalnagra 

0 komentarzy

Dodaj komentarz

Avatar placeholder

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *