Razgovarate s ChatGPT-jem o svojim osjećajima? Psiholozi upozoravaju na rizike AI chatbotova
Podijeli vijest
Sve više ljudi provodi vrijeme razgovarajući s robotima za brbljanje temeljenim na umjetnoj inteligenciji poput ChatGPT-ja. I dok neki bilježe pozitivna iskustva, psiholozi i stručnjaci za mentalno zdravlje upozoravaju: umjetna inteligencija nije terapeut. Strpljiva je i može vas slušati neograničeno, ali još uvijek ne razmišlja kao ljudsko biće, što nosi određene rizike.
Kako AI chatboti formiraju odgovore i zašto nisu terapeuti?
ChatGPT i slični alati funkcioniraju poput napredne funkcije automatskog dovršavanja teksta. Oni su naučili razgovarati čitajući ogromne količine teksta preuzetog s interneta. Kada korisnik postavi pitanje (prompt), umjetna inteligencija formira odgovor nasumično odabirući riječi koje su što bliže podacima koje je dobila tokom obuke. To se događa brzo, a odgovori se mogu činiti relevantnima, stvarajući iluziju razgovora s osobom.
Međutim, to nije slučaj. Ne razgovarate sa stručnjakom za mentalno zdravlje koji se školovao kako bi vam mogao pomoći i kojeg obvezuju profesionalne smjernice i etički kodeks. Također, sistem kojem se povjeravate ne odgovara nikome za neodgovarajuće savjete, a ostaje pitanje što radi s vašim upitima i povjerljivim informacijama.
Tri izvora informacija AI chatbota
Kada uputite upit sustavu kao što je ChatGPT, on za odgovor crpi informacije iz tri glavna izvora:
-
Osnovno znanje (trening podaci): Razvojni programeri podučavaju jezične modele čitanjem ogromnih količina javno dostupnih podataka s interneta, uključujući akademske radove, e-knjige, izvješća, novinske članke, blogove, transkripte s YouTubea i komentare s foruma poput Reddita. Pouzdanost ovih izvora za savjete o mentalnom zdravlju varira, te nisu uvijek filtrirani kroz znanstveno utemeljeni pristup. Informacije mogu biti i zastarjele, što je djelomično razlog zašto umjetna inteligencija može “halucinirati” (generirati netačne informacije).
-
Vanjski izvori informacija: Chatboti mogu biti povezani s vanjskim alatima ili izvorima znanja, poput Googlea za pretraživanje ili kuriranih baza podataka. Primjerice, Microsoftov Bing Copilot koristi vanjsko pretraživanje za dobivanje ažuriranih informacija. Određeni namjenski chatboti za mentalno zdravlje mogu pristupati vodičima i terapijskim materijalima kako bi usmjerili razgovore.
-
Prethodno pružene informacije: AI platforme imaju pristup informacijama koje ste prethodno dali u razgovorima ili prilikom prijave na platformu (ime, spol, dob, IP adresa, lokacija, itd.). Na mnogim platformama, sve što ste ikada rekli može biti pohranjeno za buduću upotrebu. Ovi sistemi često potvrđuju ono što kažete (problem poznat kao ulizivanje) i usmjeravaju razgovor natrag na interese o kojima ste već razgovarali. Za razliku od toga, profesionalni terapeut koristi obuku i iskustvo kako bi vam pomogao u izazivanju ili preusmjeravanju razmišljanja kada je to potrebno.
Specijalizirane AI aplikacije za mentalno zdravlje
Dok su OpenAI-jev ChatGPT, Googleov Gemini ili Microsoftov Copilot modeli opće namjene, postoje i specijalizirane umjetne inteligencije obučene za diskusiju o specifičnim temama, poput mentalnog zdravlja (npr. Woebot i Wyse).
Neke studije pokazuju da bi ovi chatboti specifični za mentalno zdravlje mogli smanjiti simptome anksioznosti i depresije kod korisnika te poboljšati terapijske tehnike poput vođenja dnevnika pružanjem smjernica. Postoje dokazi da terapija umjetnom inteligencijom i profesionalna terapija daju neke ekvivalentne rezultate u mentalnom zdravlju na kratak rok.
Međutim, još uvijek se ne zna kakav utjecaj ima pretjerana ili dugotrajna upotreba chatbota na mentalno zdravlje. Mnoge studije također isključuju sudionike koji su suicidalni ili imaju teški psihotični poremećaj. Važno je napomenuti i da brojne studije finansiraju sami programeri chatbota, što može dovesti do pristranosti istraživanja.
Istraživači identificiraju i potencijalne štete i rizike za mentalno zdravlje. Platforma Character.ai, na primjer, suočila se s problemima zbog samoubojstva korisnika. Iako chatboti mogu biti opcija za popunjavanje praznina gdje postoji manjak stručnjaka za mentalno zdravlje, pomoć pri upućivanju ili privremena podrška između termina ili za ljude na listama čekanja, nema dokaza da su dovoljno pouzdani i sigurni kao samostalna terapijska opcija ili za dugotrajno korištenje.