Digitalna manipulacija
Lažne AI satelitske slike: Kako umjetna inteligencija širi dezinformacije o ratu SAD-a i Irana
Lažne AI satelitske slike: Kako umjetna inteligencija širi dezinformacije o ratu SAD-a i Irana
Podijeli vijest
Lažna satelitska slika koju je objavio iranski medij izgledala je uvjerljivo: prikazivala je uništenu američku bazu u Kataru. Međutim, riječ je o lažnoj slici generisanoj umjetnom inteligencijom, što naglašava sve veću prijetnju dezinformacija koje tehnologija omogućava u ratno vrijeme.
Porast generativne umjetne inteligencije ubrzao je sposobnost državnih aktera i propagandista da fabrikuju uvjerljive satelitske snimke tokom velikih sukoba. Istraživači upozoravaju da ovaj trend nosi stvarne sigurnosne implikacije.
Rat i dezinformacije
Dok se rat SAD-a i Izraela protiv Irana razvija, list Tehran Times, engleski dnevnik blizak vlastima, objavio je na platformi X sliku “prije i poslije” za koju je tvrdio da prikazuje “potpuno uništenu” američku radarsku opremu u bazi u Kataru.
U stvarnosti, riječ je o verziji slike sa Google Earth iz 2025. godine, koja je manipulirana umjetnom inteligencijom i prikazuje američku bazu u Bahreinu, kako su utvrdili istraživači. Suptilni vizuelni znakovi koji su otkrili prevaru uključivali su red automobila parkiranih na identičnim pozicijama i na originalnoj i na manipuliranoj slici.
Ipak, lažna fotografija je zabilježila milione pregleda dok se širila društvenim mrežama na više jezika, ilustrujući kako korisnici sve više ne uspijevaju razlikovati stvarnost od fikcije na platformama zasićenim AI-generisanim vizuelima.
Brady Africk, istraživač otvorenih izvora obavještajnih podataka, primijetio je “porast manipulisanih satelitskih slika” koje se pojavljuju na društvenim mrežama nakon velikih događaja, uključujući rat na Bliskom istoku.
“Mnoge od ovih manipulisanih slika imaju karakteristike nesavršene AI-generacije: čudne uglove, zamućene detalje i izmišljene karakteristike koje se ne poklapaju sa stvarnošću,” rekao je Africk za AFP.
Analitičar informacijskog ratovanja Tal Hagin istakao je još jednu AI-generisanu satelitsku sliku koja navodno pokazuje da su izraelsko-američki avioni gađali oslikanu siluetu aviona na zemlji u Iranu, dok je Teheran navodno premjestio prave avione negdje drugdje.
Posljedice i budućnost
Lažne satelitske slike prate pojavu lažnih OSINT naloga na društvenim mrežama koji izgleda da potkopavaju rad kredibilnih digitalnih istraživača.
“Zbog magle rata može biti vrlo teško utvrditi uspjeh neprijateljskih udara. OSINT je došao kao rješenje, koristeći javne satelitske snimke da zaobiđe cenzuru” unutar zemalja poput Irana, rekao je Hagin. “Ali sada ga plijene agenti dezinformacija,” dodao je.
Izvještaji o lažnim satelitskim slikama kreiranim ili uređenim pomoću AI također su pratili sukob Rusije i Ukrajine i četverodnevni rat između Indije i Pakistana 2025. godine.
“Manipulisane satelitske slike, kao i drugi oblici dezinformacija, mogu imati stvarne posljedice kada ljudi djeluju na osnovu informacija na koje naiđu bez provjere njihove autentičnosti,” rekao je Africk.
U doba AI, autentične satelitske snimke visoke rezolucije prikupljene u realnom vremenu mogu donosiocima odluka dati vitalne tragove za procjenu sigurnosnih prijetnji i opovrgavanje neistina iz neverifikovanih izvora.
Kako AI-generisani vizueli postaju sve uvjerljiviji, “važno je da javnost pristupi takvom vizuelnom sadržaju s oprezom i kritičkom sviješću,” rekao je profesor Bo Zhao sa Univerziteta u Washingtonu.

