OPASNA ZABLUDA

Studija otkriva ozbiljnu slabost: AI modeli lako postaju žrtve medicinskih dezinformacija, a pacijenti su u opasnosti

Studija otkriva ozbiljnu slabost: AI modeli lako postaju žrtve medicinskih dezinformacija, a pacijenti su u opasnosti

prije 2 sata
Studija otkriva ozbiljnu slabost: AI modeli lako postaju žrtve medicinskih dezinformacija, a pacijenti su u opasnosti
Foto: Unspalsh
Podijeli vijest

Najnovija istraživanja pokazuju da modeli umjetne inteligencije, koji se sve više koriste za pružanje zdravstvenih savjeta, imaju kritičnu ranjivost. Oni su izuzetno podložni dezinformacijama ako su one upakovane u format koji imitira naučni autoritet, što predstavlja direktnu prijetnju javnom zdravlju.

Autoritet izgleda, a ne istina

Istraživanje je otkrilo da AI četbotovi i veliki jezički modeli često ne uspijevaju razlikovati provjerene medicinske činjenice od lažnih tvrdnji. Ključni problem je u tome što modeli daju veći značaj strukturi teksta, autoritativnom tonu i referencama koje izgledaju uvjerljivo, nego stvarnoj provjeri podataka kroz baze kliničkih dokaza. Kreatori lažnih vijesti sve više iskorištavaju ovu slabost kako bi progurali opasne medicinske savjete u odgovore popularnih AI asistenata.

Potreban radikalan zaokret

Stručnjaci ističu da trenutni zaštitni mehanizmi nisu dovoljni. Iako kompanije poput OpenAI, Google i Meta stalno unapređuju svoje modele, studija sugerira da je neophodan potpuno drugačiji pristup u načinu na koji AI vrednuje izvore informacija. “Problem nije samo u tome što AI može pogriješiti, već u tome što on aktivno uči iz sofisticirano plasiranih neistina koje imitiraju nauku,” navodi se u izvještaju.

Dok se tehnologija ne usavrši, ljekari i istraživači apeluju na građane da AI alate koriste isključivo kao informativnu pomoć. Za bilo kakvu dijagnozu ili terapiju, neophodno je da se pacijenti obrate kvalifikovanim medicinskim stručnjacima i provjerenim institucijama.

   Tagovi