AI u vojnim operacijama

Palantir AI u izraelskim napadima: Optužbe i upozorenja

Palantir AI u izraelskim napadima: Optužbe i upozorenja

prije 56 minuta
Palantir logo sa štitom i ključem u pozadini
Podijeli vijest:

Tehnologije američke kompanije Palantir, koje se temelje na vještačkoj inteligenciji, sve su više zastupljene u odbrambenim i obavještajnim aktivnostima izraelske vojske, a prema izvještajima i analizama stručnjaka, ovi sistemi su korišteni u operacijama u Gazi, Libanu i onima povezanim s Iranom.

Palantir je putem platformi poput Gotham, AIP, Foundry i Skykit omogućio integraciju naprednih AI alata u vojne procese, kombinirajući analizu ogromnih količina podataka, operativne AI sisteme i prenosive terenske obavještajne kapacitete.

Prošle godine, Palantir je sklopio ugovor vrijedan deset milijardi dolara s američkom vojskom i postao ključni partner u Pentagonovom programu Maven, koji koristi AI za identifikaciju ciljeva i analizu bojišta. Također je uključen u projekte TITAN i Army Vantage, koji imaju za cilj ubrzanje vojnog odlučivanja putem vještačke inteligencije.

U januaru 2024. godine, suosnivači Palantira, Alex Karp i Peter Thiel, održali su sastanak upravnog odbora u Tel Avivu, gdje su se sastali s izraelskim predsjednikom Isaacom Herzogom i postigli dogovor o strateškoj saradnji s izraelskom vojskom.

Kompanija je kasnije potvrdila da će pružiti AI podršku usmjerenu na ciljanje i analizu podataka za „misije povezane s ratom“, iako nije iznijela detalje sporazuma niti precizirala koji sistemi su u pitanju. Karp je prilikom posjete Tel Avivu izjavio da je potražnja Izraela za uslugama Palantira porasla nakon 7. oktobra 2023. godine, aludirajući na početak izraelske genoćidne kampanje u Gazi, te dodao da je kompanija počela isporučivati proizvode koji se razlikuju od onih koji su ranije bili ponuđeni Izraelu.

Centar za resurse za poslovanje i ljudska prava objavio je 2024. godine da su Palantirove tehnologije direktno korištene u izraelskim napadima na Gazu. Kompanija je te optužbe demantovala, tvrdeći da su njene aktivnosti u Izraelu započele prije 7. oktobra 2023. i da su usklađene s podrškom koju pruža američkim saveznicima širom svijeta.

U knjizi novinara Michaela Steinbergera navodi se da su izraelske operacije usmjerene na visoke zvaničnike Hezbollaha u Libanu 2024. godine imale koristi od Palantir tehnologija, te da su ovi sistemi korišteni i u takozvanoj „Operaciji Grim Beeper“, tokom koje su pejdžeri-bombe ranili stotine pripadnika Hezbollaha.

Prema izvještaju Washington Posta, Pentagon je koristio Palantirov „Maven Smart System“ integrisan s Anthropicovim AI modelom Claude prilikom planiranja napada usmjerenih na Iran. Sistem je, navodno, identifikovao i mapirao potencijalne ciljeve koristeći naprednu AI analizu.

Bivša zaposlenica Microsofta Ibtihal Aboussad izjavila je kako su Palantirove tehnologije imale ključnu ulogu u izraelskim vojnim operacijama. „Palantir u osnovi naoružava vještačku inteligenciju i analizu podataka kako bi donosio smrtonosne odluke“, rekla je Aboussad, dodajući da izraelske vlasti prikupljaju podatke s društvenih mreža, aplikacija za razmjenu poruka, telefonskih poziva i lokacijskih usluga u Gazi kako bi podržale operacije ciljanja.

Ona je upozorila da vojni zvaničnici mogu pokušati izbjeći odgovornost pripisujući odluke o napadima tehnologiji, te da Palantirovi sistemi funkcionišu kao „štit koji štiti Izrael od pravne odgovornosti“.

Aboussad je navela da je tehnološka infrastruktura Palantira korištena u izraelskim AI sistemima „Lavender“ i „Where’s Daddy“, koji su navodno široko korišteni za identifikaciju ciljeva u Gazi. „Oklevam to nazvati softverom, jer je jasno dizajniran sa svrhom nadzora, ratovanja i ubijanja“, kazala je, te dodala da su ovi sistemi također korišteni u operacijama pritvaranja i racijama na okupiranoj Zapadnoj obali.

Laura Bruun, stručnjakinja za upravljanje vještačkom inteligencijom u Međunarodnom institutu za mirovna istraživanja u Stockholmu (SIPRI), izjavila je kako integracija AI u konfliktna okruženja ubrzano mijenja ratovanje u pogledu brzine i obima, posebno u procesima ciljanja.

Upozorila je da korištenje AI za masovni nadzor nosi ozbiljne rizike po ljudska prava i privatnost, te dodatno zamagljuje granicu između civilnih i vojnih tehnologija.

Bruun je rekla da upotreba AI u zonama sukoba stvara rizike koji se razlikuju od ljudskih grešaka, te da postojeća istraživanja ukazuju na to da bi integracija ovakvih tehnologija mogla povećati vjerovatnoću grešaka i nenamjernih rizika.

Naglasila je da države snose odgovornost za greške uzrokovane AI u ratovanju, posebno u procesima ciljanja, te da bi vlade mogle biti smatrane odgovornim ako ne spriječe kvarove unutar takvih sistema.

Bruun je također istakla da je izuzetno teško utvrditi jesu li problemi u zonama sukoba direktno uzrokovani AI sistemima, s obzirom na apstraktnu prirodu tehnologije koja otežava identifikaciju izvora grešaka.

„Do sada još uvijek nije zaista utvrđeno šta država praktično mora uraditi kako bi koristila vještačku inteligenciju na zakonit i odgovoran način“, zaključila je.

   Tagovi