AI odricanje odgovornosti
Microsoft šokirao korisnike: Priznali da je moćni Copilot zapravo samo “za zabavu”
Microsoft šokirao korisnike: Priznali da je moćni Copilot zapravo samo “za zabavu”
Kompanija Microsoft našla se u centru pažnje nakon što su korisnici otkrili da uslovi korištenja za njihovog AI asistenta Copilot sadrže iznenađujuće upozorenje. Prema dokumentu, ovaj moćni alat je zapravo namijenjen isključivo za zabavu, a ne za pouzdane savjete.
Korporativni klijenti i “naslijeđena retorika”
Ironija je posebno uočljiva s obzirom na to da Microsoft intenzivno radi na privlačenju korporativnih klijenata koji bi plaćali usluge Copilota. Portparol kompanije je potvrdio da će biti izvršene izmjene, opisavši postojeći tekst kao “naslijeđenu retoriku” koja više ne odražava način kako se proizvod danas koristi. “Kako se proizvod razvijao, taj rječnik više ne odražava način na koji se Copilot danas koristi i biće izmijenjen u našem sljedećem ažuriranju”, izjavio je predstavnik Microsofta.
Šira praksa u industriji AI
Microsoft nije jedina kompanija koja koristi ovakva upozorenja. I OpenAI i xAI, kompanija Elona Muska, također eksplicitno savjetuju korisnike da se ne oslanjaju na rezultate njihovih AI modela kao na “istinu” ili “jedini izvor činjeničnih informacija”. Ova praksa ističe fundamentalni izazov pouzdanosti generativne umjetne inteligencije, čak i kada je riječ o vodećim proizvodima na tržištu.


