Oprez pri korištenju AI četbotova za informisanje

Oprez pri korištenju AI četbotova za informisanje

prije 6 sati
Tags:
Podijeli vijest

Svakodnevno se stotine miliona ljudi širom svijeta oslanja na razgovore sa vještačkom inteligencijom kada traže informacije. Mnogi korisnici postavljaju pitanja o izbornim rezultatima, traže sažetke vijesti ili osnovne podatke o aktuelnim događajima, prepuštajući se AI asistentima umjesto tradicionalnim pretragama.

Zabrinjavajući rezultati testiranja

Prema sistematskom istraživanju koje je provela Evropska radiodifuzna unija, najpopularniji četbotovi često daju netačne odgovore. Studija je pokazala da sustavi poput ChatGPT, Claude i Gemini u određenim slučajevima izmišljaju do četrdeset posto svojih odgovora, predstavljajući ih kao provjerljive činjenice.

Sistemi zvuče uvjerljivo, iako više puta tvrde potpuno lažne stvari. To ih čini posebno opasnim za neiskusne korisnike, jer greške često nisu odmah očigledne.

Primjeri pogrešnih informacija

U toku testiranja uočene su brojne netačnosti. ChatGPT je tvrdio da je papa Franjo još uvijek živ, dok Microsoftov Copilot nije znao da je Švedska postala članica NATO saveza. Googleov Gemini je pak smatrao da je ponovni izbor Donalda Trumpa samo ‘moguć’, iako se taj događaj već desio.

Štetne posljedice po društvo

Ovakvo stanje predstavlja ozbiljnu prijetnju demokratskim procesima. Lažne informacije brzo se šire društvenim mrežama, a učenici i studenti nekritički uključuju izmišljene podatke u svoje radove. Građani mogu donositi važne odluke, uključujući i izborne, na osnovu netačnih tvrdnji.

Poseban problem predstavlja činjenica što mnogi korisnici nisu ni svjesni mogućnosti da AI sustavi daju pogrešne informacije. Pretpostavljaju da tehnologija funkcioniše objektivno i činjenično, što je opasna zabluda.

Narušavanje povjerenja u medije

Četbotovi redovno navode renomirane medijske kuće kao izvore svojih izmišljenih informacija, iako ti mediji nikada nisu izvještavali o navedenim temama ili su to činili na sasvim drugačiji način. Time se podriva kredibilitet etabliranih izvora informacija.

Uzroci pogrešnih odgovora

Temeljni problem leži u načinu rada ovih sustava. Četbotovi zapravo ne razumiju šta govore, već na osnovu statističkih obrazaca predviđaju koje riječi najvjerovatnije slijede jedne iza drugih. Nemaju znanje o činjenicama, već samo statističke podatke o jezičkim uzorcima.

Preporuke za korisnike

Stručnjaci savjetuju oprez pri korištenju AI četbotova. Nikada ne treba vjerovati njihovim odgovorima bez provjere, posebno kada su u pitanju važne informacije. Za vijesti i činjenične podatke uvijek je bolje osloniti se na etablirane medije.

Četbotovi mogu biti korisni za kreativne zadatke ili kao pomagala za pisanje, ali nisu pogodni kao provjeravači činjenica ili izvori vijesti.

Obrazovne ustanove trebaju podučavati medijsku pismenost, ukazujući na načine prepoznavanja dezinformacija koje generiše veštačka inteligencija. Dok tehnologija ne postane pouzdanija, korisnici moraju ostati kritički nastrojeni prema svim informacijama dobijenim putem AI sustava.