OPASNA ZABLUDA

Studija otkriva ozbiljnu slabost: AI modeli lako postaju žrtve medicinskih dezinformacija, a pacijenti su u opasnosti

Studija otkriva ozbiljnu slabost: AI modeli lako postaju žrtve medicinskih dezinformacija, a pacijenti su u opasnosti

prije 2 mjeseca
Studija otkriva ozbiljnu slabost: AI modeli lako postaju žrtve medicinskih dezinformacija, a pacijenti su u opasnosti
Foto: Unspalsh
Podijeli vijest:

Najnovija istraživanja pokazuju da modeli umjetne inteligencije, koji se sve više koriste za pružanje zdravstvenih savjeta, imaju kritičnu ranjivost. Oni su izuzetno podložni dezinformacijama ako su one upakovane u format koji imitira naučni autoritet, što predstavlja direktnu prijetnju javnom zdravlju.

Autoritet izgleda, a ne istina

Istraživanje je otkrilo da AI četbotovi i veliki jezički modeli često ne uspijevaju razlikovati provjerene medicinske činjenice od lažnih tvrdnji. Ključni problem je u tome što modeli daju veći značaj strukturi teksta, autoritativnom tonu i referencama koje izgledaju uvjerljivo, nego stvarnoj provjeri podataka kroz baze kliničkih dokaza. Kreatori lažnih vijesti sve više iskorištavaju ovu slabost kako bi progurali opasne medicinske savjete u odgovore popularnih AI asistenata.

Potreban radikalan zaokret

Stručnjaci ističu da trenutni zaštitni mehanizmi nisu dovoljni. Iako kompanije poput OpenAI, Google i Meta stalno unapređuju svoje modele, studija sugerira da je neophodan potpuno drugačiji pristup u načinu na koji AI vrednuje izvore informacija. “Problem nije samo u tome što AI može pogriješiti, već u tome što on aktivno uči iz sofisticirano plasiranih neistina koje imitiraju nauku,” navodi se u izvještaju.

Dok se tehnologija ne usavrši, ljekari i istraživači apeluju na građane da AI alate koriste isključivo kao informativnu pomoć. Za bilo kakvu dijagnozu ili terapiju, neophodno je da se pacijenti obrate kvalifikovanim medicinskim stručnjacima i provjerenim institucijama.

   Tagovi