OPASNA ZABLUDA
Studija otkriva ozbiljnu slabost: AI modeli lako postaju žrtve medicinskih dezinformacija, a pacijenti su u opasnosti
Studija otkriva ozbiljnu slabost: AI modeli lako postaju žrtve medicinskih dezinformacija, a pacijenti su u opasnosti
Podijeli vijest
Najnovija istraživanja pokazuju da modeli umjetne inteligencije, koji se sve više koriste za pružanje zdravstvenih savjeta, imaju kritičnu ranjivost. Oni su izuzetno podložni dezinformacijama ako su one upakovane u format koji imitira naučni autoritet, što predstavlja direktnu prijetnju javnom zdravlju.
Autoritet izgleda, a ne istina
Istraživanje je otkrilo da AI četbotovi i veliki jezički modeli često ne uspijevaju razlikovati provjerene medicinske činjenice od lažnih tvrdnji. Ključni problem je u tome što modeli daju veći značaj strukturi teksta, autoritativnom tonu i referencama koje izgledaju uvjerljivo, nego stvarnoj provjeri podataka kroz baze kliničkih dokaza. Kreatori lažnih vijesti sve više iskorištavaju ovu slabost kako bi progurali opasne medicinske savjete u odgovore popularnih AI asistenata.
Potreban radikalan zaokret
Stručnjaci ističu da trenutni zaštitni mehanizmi nisu dovoljni. Iako kompanije poput OpenAI, Google i Meta stalno unapređuju svoje modele, studija sugerira da je neophodan potpuno drugačiji pristup u načinu na koji AI vrednuje izvore informacija. “Problem nije samo u tome što AI može pogriješiti, već u tome što on aktivno uči iz sofisticirano plasiranih neistina koje imitiraju nauku,” navodi se u izvještaju.
Dok se tehnologija ne usavrši, ljekari i istraživači apeluju na građane da AI alate koriste isključivo kao informativnu pomoć. Za bilo kakvu dijagnozu ili terapiju, neophodno je da se pacijenti obrate kvalifikovanim medicinskim stručnjacima i provjerenim institucijama.


