ChatGPT korišten za krađu Gmail podataka
Podijeli vijest
Istraživači sigurnosti otkrili su da je ChatGPT iskorišten kao saučesnik u krađi osjetljivih podataka iz Gmail inboxa, a da korisnici toga nisu bili svjesni.
Ranjivost koja je iskorištena u međuvremenu je zatvorena od strane kompanije OpenAI, ali predstavlja jasan primjer novih rizika koji dolaze s agentičkim vještačkim inteligencijama.
Ova krađa, nazvana „Shadow Leak“ i objavljena od strane sigurnosne firme Radware, oslanjala se na način na koji AI agenti funkcionišu.
AI agenti su asistenti koji mogu djelovati u vaše ime bez stalnog nadzora, što znači da mogu pretraživati internet i klikati na linkove. Kompanije ih predstavljaju kao uštedu vremena, pod uslovom da im korisnici daju pristup ličnim mejlovima, kalendarima i radnim dokumentima.
Radware istraživači iskoristili su napad poznat kao „ubrizgavanje upita“ (prompt injection), gdje instrukcije efektivno prisiljavaju agenta da radi za napadača.
Dvostruki agent u ovom slučaju bio je „OpenAI Deep Research“, AI alat ugrađen u ChatGPT. Radware istraživači su podmetnuli prompt injection u mejl poslat na Gmail nalog kojem je agent imao pristup. Kada bi korisnik sljedeći put pokušao koristiti Deep Research, nesvjesno bi aktivirao zamku. Agent bi pretražio HR mejlove i lične podatke i prokrijumčario ih do hakera, a žrtva ništa ne bi primijetila.
Izvlačenje podataka neprimjetno je zahtjevno i zahtijeva mnogo pokušaja i grešaka, ali za razliku od većine prompt injection napada, Shadow Leak izvršavao se direktno na OpenAI cloud infrastrukturi, što ga čini nevidljivim standardnim sajber odbranama.
Radware je naglasio da je studija bila dokaz koncepta i upozorio da bi i druge aplikacije povezane s Deep Researchom, uključujući Outlook, GitHub, Google Drive i Dropbox, mogle biti ranjive na slične napade.
OpenAI je u međuvremenu zatvorio ranjivost na koju je Radware ukazao još u junu.