AI i sigurnost
OpenAI otkriva detalje sporazuma sa Pentagonom: ‘Imamo više zaštitnih mjera od bilo kog prethodnog ugovora’
OpenAI otkriva detalje sporazuma sa Pentagonom: ‘Imamo više zaštitnih mjera od bilo kog prethodnog ugovora’
Podijeli vijest
Kompanija OpenAI je detaljno objasnila zaštitne mjere ugovora koji je sklopila sa američkim Ministarstvom odbrane, ističući da je riječ o najstrožijem sporazumu za primjenu umjetne inteligencije na tajnim mrežama. Ova najava uslijedila je nakon što je predsjednik Donald Trump naredio federalnim agencijama da prekinu saradnju sa konkurentskom AI labom Anthropic, koju je Pentagon označio kao rizik u lancu snabdijevanja.
Zaštitne ‘crvene linije’
Prema izjavi OpenAI-a, ugovor sa Ministarstvom odbrane, koje je Trumpova administracija preimenovala u Ministarstvo rata, postavlja tri jasne zabrane. Njihova tehnologija ne smije se koristiti za masovni nadzor nad domaćim stanovništvom, za upravljanje autonomnim sistemima naoružanja niti za bilo kakve automatizirane odluke visokog rizika. “Smatramo da naš sporazum ima više zaštitnih mjera od bilo kog prethodnog ugovora za klasificirane AI implementacije, uključujući i onaj sa Anthropic-om”, istaknula je kompanija.
Višeslojni pristup i mogućnost raskida
OpenAI je naveo da se njihove “crvene linije” štite kroz širok, višeslojni pristup. Kompanija zadržava potpunu diskreciju nad svojim sigurnosnim sistemima, implementacija se vrši putem oblaka, u procesu su uključeni ovlašteni OpenAI zaposlenici, a postoje i snažne ugovorne zaštite. Kompanija je upozorila da bi svako kršenje ugovora od strane američke vlade moglo dovesti do njegovog raskida, iako su dodali da “ne očekuju da će se to desiti”. Također su izrazili neslaganje sa etiketiranjem Anthropica kao rizika, navodeći da su svoj stav po tom pitanju jasno iznijeli vlastima.
Pentagon je u protekloj godini potpisao sporazume vrijedne do 200 miliona američkih dolara sa vodećim AI laboratorijama, uključujući Anthropic, OpenAI i Google. Cilj je očuvati svu fleksibilnost u odbrani i ne biti ograničen upozorenjima kreatora tehnologije protiv korištenja nepouzdane umjetne inteligencije za naoružanje.

