OpenAI razmatra prilagodbu sigurnosnih zahtjeva ako konkurencija lansira rizičan AI model
Podijeli vijest
OpenAI je izjavio da bi mogao razmotriti prilagodbu svojih sigurnosnih zahtjeva ako konkurentska kompanija lansira AI model visokog rizika bez adekvatne zaštite.
U svom izvještaju o pripremnosti, OpenAI je naveo da će razmotriti promjenu svojih sigurnosnih zahtjeva ako druga kompanija objavi model koji predstavlja prijetnju, nakon što rigorozno potvrdi da se “rizični pejzaž” promijenio.
Dokument objašnjava kako kompanija prati, ocjenjuje, prognozira i štiti od katastrofalnih rizika koje predstavljaju AI modeli.
„Ako neki drugi razvojni tim za napredni AI objavi visokorizičan sistem bez odgovarajuće zaštite, možda ćemo prilagoditi naše zahtjeve“, navodi OpenAI u blog postu objavljenom u utorak.
Međutim, dodali su da bi prvo rigorozno potvrdili da se rizici zaista mijenjaju, javno priznali da vrše prilagodbu, procijenili da prilagodba neće značajno povećati ukupni rizik od ozbiljne štete i nastavili držati zaštitu na višem nivou.
Prije nego što objavi model široj javnosti, OpenAI procjenjuje može li izazvati ozbiljnu štetu identificirajući plauzibilne, mjerljive, nove, ozbiljne i nepopravljive rizike, te grade zaštitu protiv njih. Potom klasificira ove rizike kao niski, srednji, visoki ili kritični.
Neki od rizika koje kompanija već prati uključuju sposobnosti svojih modela u poljima biologije, hemije, kibernetičke sigurnosti i samopoboljšanja.
Također, OpenAI procjenjuje nove rizike, kao što je sposobnost AI modela da funkcioniše duže vrijeme bez ljudske intervencije, samoreplikaciju i prijetnje u nuklearnom i radiološkom području.
„Rizici uvjeravanja“, kao što je korištenje ChatGPT-a u političkim kampanjama ili lobiranju, bit će obrađeni izvan okvira izvještaja i umjesto toga razmatrani kroz Model Spec, dokument koji određuje ponašanje ChatGPT-a.
„Tiho smanjenje sigurnosnih obaveza“
Steven Adler, bivši istraživač u OpenAI-u, izjavio je na platformi X da ažuriranja izvještaja o pripravnosti pokazuju da kompanija „tiho smanjuje svoje sigurnosne obaveze“.
U svom postu, on je ukazao na obavezu koju je kompanija dala u decembru 2023. godine, da će testirati „fino podešene verzije“ svojih AI modela, ali je primijetio da će OpenAI sada prelaziti samo na testiranje modela čiji će obučeni parametri ili „težine“ biti objavljeni.
„Ljudi se mogu potpuno neslagati u vezi s tim da li je testiranje fino podešenih modela potrebno, a bolje je za OpenAI da ukloni obavezu nego da je zadrži i jednostavno je ne prati“, rekao je.
Ova vijest dolazi nakon što je OpenAI ove sedmice objavio novu porodicu AI modela, pod nazivom GPT-4.1, navodno bez sistemske kartice ili sigurnosnog izvještaja. Euronews Next je postavio pitanje OpenAI-u o sigurnosnom izvještaju, ali nisu dobili odgovor u trenutku objave.
Ovaj razvoj događaja dolazi nakon što je 12 bivših OpenAI zaposlenika prošle sedmice podnijelo amicus brief u slučaju koji je Elon Musk pokrenuo protiv OpenAI-a, a koji tvrdi da bi prelazak na profitnu organizaciju mogao dovesti do smanjenja sigurnosti.