Može li ChatGPT zaista položiti Turingov test?
Foto: Chat GPT

Može li ChatGPT zaista položiti Turingov test?

9. Maja 2025.
Podijeli vijest

Umjetna inteligencija, posebno chatbotovi poput ChatGPT-a, sve više zvuče kao ljudi. S obzirom na to da ih ljudi i razvijaju, nije iznenađujuće što LLM modeli postaju sve prirodniji u komunikaciji. Ali postavlja se ključno pitanje: može li ChatGPT već sada prevariti čovjeka i položiti Turingov test?

Već decenijama Turingov test predstavlja ključni pokazatelj napretka u razvoju vještačke inteligencije. Sada su naučnici počeli konkretno testirati modele poput ChatGPT-a. Neki tvrde da je ovaj model već ispunio kriterije.

Ali šta zapravo znači “položiti” Turingov test? I da li to znači da su AI modeli zaista inteligentni?

Šta je zapravo Turingov test?

Britanski matematičar Alan Turing, začetnik savremene informatike, još 1950. godine predložio je takozvanu “igru imitacije”, koja se danas zove Turingov test. Suština je jednostavna: ljudski sudija razgovara s dva nepoznata sagovornika — jednim čovjekom i jednom mašinom — ne znajući ko je ko. Ako sudija ne može s pouzdanošću odrediti koji je koji, AI model je prošao test.

Naravno, ovo ne znači da je taj model pametan kao čovjek. Turingov test mjeri sposobnost oponašanja čovjeka, a ne stvarnu inteligenciju ili razumijevanje.

Da li veliki jezički modeli zaista “misle”?

Veliki jezički modeli, uključujući ChatGPT, nemaju svijest, um, ni vlastito razumijevanje svijeta. Oni ne razmišljaju kao ljudi, niti posjeduju uvjerenja ili osjećaje. Umjesto toga, koriste ogromne količine podataka kako bi predviđali koje riječi bi trebalo da slijede u rečenici. Njihov rad je baziran na statistici i vjerovatnoći — u osnovi, predviđaju najvjerovatniji slijed riječi.

Dakle, iako njihovi odgovori mogu zvučati ljudski, to nije rezultat razmišljanja, već složene matematičke obrade.

Šta kažu istraživanja?

Nekoliko studija ukazuje da je ChatGPT, posebno verzije GPT-4 i GPT-4.5, sve bliži (ili već sposoban) da prevari ljudske sudije.

Na primjer, istraživanje Univerziteta Kalifornija u San Diegu pokazalo je da je GPT-4 pogrešno identifikovan kao čovjek u 54% slučajeva, dok su stvarni ljudi prepoznati kao ljudi u 67% slučajeva. Sa dolaskom GPT-4.5, procenat prepoznavanja porastao je na 73%, što znači da je model u toj verziji bio “ljudskiji” od stvarnih ljudi.

Još jedno istraživanje na Univerzitetu Reading testiralo je GPT-4 u pisanju studentskih eseja. Od 33 rada, samo jedan je bio označen kao potencijalno generisan od AI-ja, dok su ostali ocijenjeni kao iznadprosječni.

Ipak, ovi rezultati nisu konačni. Kritičari upozoravaju da su ovi testovi često ograničeni i da ne obuhvataju sve kompleksnosti stvarnog razgovora.

Šta ChatGPT sam kaže?

Na pitanje da li može položiti Turingov test, ChatGPT (verzija 4o) odgovara:

“ChatGPT može položiti Turingov test u nekim scenarijima, ali ne pouzdano i univerzalno. Možda bi ga prošao kod prosječnog korisnika u opuštenim okolnostima, ali uporan i analitičan ispitanik bi gotovo uvijek mogao otkriti da nije riječ o čovjeku.”

Da li je Turingov test zastario?

Mnogi stručnjaci danas smatraju da Turingov test više nije dovoljan. Jedan od njih je Gary Marcus, poznati kognitivni naučnik, koji kaže:

“Turingov test mjeri ljudsku lakovjernost, a ne inteligenciju.”

Model poput ChatGPT-a može uspješno imitirati neobavezan razgovor, ali ima poteškoće u diskusijama koje zahtijevaju istinsku emocionalnu inteligenciju, svijest o kontekstu ili vrijednosne sudove. Osim toga, AI se danas koristi i za mnoge druge zadatke osim komunikacije, poput analize podataka, automatizacije i donošenja odluka.

Iako su LLM modeli poput ChatGPT-a sve bliži tome da prevare čovjeka, Turingov test možda više nije najvažniji standard u mjerenju napretka umjetne inteligencije. On ostaje važan historijski orijentir, ali budućnost AI-ja vjerovatno zahtijeva nove, kompleksnije kriterije.