AI modeli i njihove sklonosti ka halucinacijama

prije 59 minuta
AI modeli i njihove sklonosti ka halucinacijama
Podijeli vijest

Problemi sa lažnim informacijama

U proteklom mjesecu, više od pedeset sudskih slučajeva u Sjedinjenim Američkim Državama je sadržavalo lažne pravne izvore koje je generisala vještačka inteligencija. Advokati su zbog toga gubili slučajeve, bili suspendovani i morali su obavještavati sudove. Razlog tome je što je njihova vještačka inteligencija sa sigurnošću izmišljala odgovore koji su djelovali autentično. Međutim, pravna tehnologija je samo jedan aspekt ovog problema.

U svim industrijama, skoro polovina rukovodilaca priznaje da donosi važne odluke na osnovu izmišljenih informacija. Čak 70% projekata vještačke inteligencije ne uspijeva, ne zbog lošeg kvaliteta same vještačke inteligencije, već zato što kompanije biraju neodgovarajuće modele za svoje potrebe. Ukupni gubici su u 2024. godini dostigli više od 67 milijardi američkih dolara.

Različiti modeli, različiti problemi

Visokoprecizni modeli kao što su GPT-5 i Gemini ostavljaju snažan utisak, ali njihova sklonost ka uvjerljivim halucinacijama predstavlja veliki problem za proizvodnju, usklađenost i aplikacije kritične za sigurnost. S druge strane, pouzdani modeli poput Claude-a žrtvuju određene mogućnosti kako bi pružili nivo povjerenja koji je zaista potreban preduzećima.

   Tagovi