
Image generated with DALL·E through ChatGPT
Mišljenje: Epidemija halucinacija AI, kriza za koju nismo spremni
Unatoč stalnim obećanjima o smanjenju AI halucinacija, glavni AI alati – od ChatGPT-a do Perplexity-a do Geminija i Apple Intelligence-a – nastavljaju generirati lažne informacije, često s alarmantnim posljedicama. Stručnjaci, uključujući one koji upozoravaju na rizike od AI-a, nasjeli su na izmišljeni sadržaj, a čak i napredni alati poput Deep Researcha izmišljaju izvješća. Istina izgleda da ostaje u ljudskim rukama
Chatboti su tijekom godina postajali sve bolji – puno bolji. Međutim, postoji jedan problem koji još uvijek nije sasvim riješen i poznat je kao “halucinacije”.
Naši omiljeni chatbotovi daju briljantne odgovore na naša pitanja s odlučnošću i autoritetom znanstveno-fantastičnog Yode, čak i kada su potpuno u krivu. I mi im vjerujemo. Ponekad slijepo.
Brojni znanstvenici, stručnjaci, pa čak i razvijatelji chatbota upozoravaju na halucinacije već godinama. Ipak, dok se usvajanje brzo širi – OpenAI je prijavio 400 milijuna aktivnih korisnika tjedno samo prije nekoliko dana – pismenost u području umjetne inteligencije nije pratila taj tempo.
Nedavne studije, sudski slučajevi i dramatični događaji nastavljaju pokazivati da je dezinformacija opasnija nego što smo shvatili.
Gore je nego što mislimo
U početku, otkrivanje velikih grešaka generiranih umjetnom inteligencijom bilo je prilično smiješno – poput onih neugodnih pregleda generiranih AI-om Gemini koji su korisnicima predlagali da dodaju “netoksični ljepilo u umak” za recept za pizzu ili preporučivali konzumaciju “jednog malog kamena dnevno” prošle godine. No, kako ponovno stječemo povjerenje u AI, situacija se pojačala, postajući sve više zabrinjavajuća.
U prosincu smo vidjeli kako Appleov alat za umjetnu inteligenciju stvara naslove “sažimajući” vijesti i generira lažne i obmanjujuće informacije, poput lažne tvrdnje da je BBC objavio da se Luigi Mangione ubio. Nakon tog incidenta, publikacija je podnijela tužbu protiv Applea i započela istraživanje točnosti generativne umjetne inteligencije pri analizi novinskih sadržaja.
BBC-jeva otkrića, objavljena prije samo nekoliko dana, otkrila su alarmantne statistike: 51% odgovora koje su pružili popularni AI Chatboti sadržavalo je značajne probleme, 13% citata koje su modeli pružili bilo je potpuno izmišljeno, a 19% podataka bilo je netočno.
Tinejdžeri su među najpogođenijim populacijama, budući da često imaju problema razlikovati lažne vijesti od pravih vijesti, te mogu biti lako pod utjecajem sadržaja generiranog umjetnom inteligencijom. Studija objavljena u siječnju pokazala je da je 35% tinejdžera bilo zavedeno lažnim sadržajem generiranim AI modelima, a 22% je podijelilo lažne informacije.
Ali nije riječ samo o tinejdžerima i ljudima koji su lako ometeni koji nasjedaju na ove halucinacije. I nije samo Gemini ili Apple Intelligence u pitanju.
Nijedan AI model nije pošteđen, nijedna industrija nije sigurna
To istraživanje koje je provela BBC potvrđuje još jedan problem: svi AI modeli haluciniraju. Stručnjaci su razmatrali najpopularnije modele, ChatGPT, Gemini, Perplexity i Copilot. Nijedan AI model nije izuzet od pogrešaka. Anthropic ima stranicu koja se bavi ovim problemom, nudeći ideje o tome kako smanjiti halucinacije.
„Čak i najnapredniji jezični modeli, poput Claudea, ponekad mogu generirati tekst koji je faktički netočan ili nije u skladu s danim kontekstom“, navodi se u dokumentu. Ostale AI tvrtke podijelile su slične stranice s savjetima i trikovima kako izbjeći lažni sadržaj, ali to nije tako jednostavno i dugo vremena je to bio neriješen problem.
Još 2023. godine, OpenAI najavio je da radi na novim inovativnim načinima za rješavanje halucinacija. Dajem vam do znanja: to je još uvijek veliki problem danas.
U siječnju 2024. godine – prije više od godinu dana – izvršni direktor Aravind Srinivas izjavio je da se halucinacije Perplexityja uglavnom pojavljuju na neplaćenim računima. “Većina pritužbi dolazi s besplatne verzije proizvoda”, objasnio je Srinivas, dodajući da već nabavljaju više GPU-a kako bi riješili problem. Međutim, do listopada, New York Post i Dow Jones podnijeli su tužbu protiv Perplexityja – jer je njihov model pripisivao lažne vijesti njihovim publikacijama -, a AI alat koji je startup razvio za američke izbore bio je testiran od strane stručnjaka koji su otkrili nesuglasice, netočne sažetke i halucinacije.
Bolest halucinacija doseže znanstvene i akademske razine
Jedna od najvećih briga trenutno je da čak i stručnjaci – uključujući one koji upozoravaju na rizike i opasnosti AI-ja – podliježu ovim alatima sklonima halucinacijama.
U prosincu, profesor na Stanfordu i stručnjak za tehnologiju i dezinformacije Jeff Hancock optužen je da je koristio AI za izradu sudskog iskaza. Hancock je podnio 12-straničnu izjavu braneći zakon iz 2023. koji kriminalizira upotrebu deepfake-a, uključujući 15 citata. Međutim, dva od tih citata nisu se mogla nigdje pronaći – jer ih je ChatGPT, preferirani AI alat stručnjaka za dezinformacije, jednostavno izmislio.
Hancock – koji je ove godine planirao predavati na temu “Istina, Povjerenje i Tehnologija” – objasnio je da je za organizaciju svojih citata koristio OpenAI-jev chatbot, što je dovelo do halucinacija. Istraživač se ispričao – i stao iza bitnih točaka svoje izjave – te nas je sve naučio vrijednoj lekciji da su čak i stručnjaci i oni koji najbolje poznaju rizike od AI-a podložni tome.
Profesor Hancock nije bio jedini koji je sudu podnio dokumente koji sadrže izmišljotine generirane AI-om, naravno. Drugi slučaj koji uključuje tužbu protiv Walmarta nedavno je postao viralan jer su odvjetnici koristili lažne slučajeve generirane AI-om za izgradnju svoje argumentacije. Zapravo, pitanje je postalo toliko često u američkim sudovima da je odvjetnička tvrtka Morgan & Morgan nedavno poslala e-mailove svojim više od 1.000 odvjetnika, upozoravajući ih na rizike korištenja citata generiranih AI-om, a Američka odvjetnička udruga podsjetila je svojih 400.000 članova na pravila etike odvjetnika – uključujući informacije generirane AI-om.
Duboko istraživanje Također
Jedan od najpopularnijih AI alata trenutno je “Deep Research”, dizajniran za stručnjake i znanstvenike koji traže složenije rezultate u svojim istraživanjima. Halucinacije nisu izostale ni iz ovog alata, iako je inačica OpenAI-a inicijalno zahtijevala pretplatu Pro od $200 za pristup.
Korisnici na Redditu izrazili su zabrinutost vezano za ovaj problem, izvještavajući da su svi popularni modeli koji uključuju alate za dubinsko istraživanje – Perplexity, ChatGPT i DeepSeek – halucinirali. Istraživači i AI stručnjaci također su podijelili zabrinjavajuće rezultate na drugim društvenim mrežama poput X.
“Alat je stvorio prekrasno napisan i argumentiran izvještaj,” napisala je jedna korisnica koja je koristila OpenAI Deep Research alat za proučavanje matematike koju su radili mladi. “Jedini problem je što je sve izmišljeno.”
“Deep Research je izmislio hrpu statistika i analiza, tvrdeći da sastavlja bazu podataka tisućama članaka, i navodno prikuplja informacije o godini rođenja svakog autora iz pouzdanih izvora,” podijelila je druga. “Ništa od toga nije istina.”
Najgora halucinacija koju sam vidjela od sota LLM već neko vrijeme
Dubinska Istraživanja izmislila su hrpu statistika i analiza, tvrdeći da sastavljaju skup podataka od tisuća članaka i navodno sakupljaju podatke o godini rođenja svakog autora iz pouzdanih izvora
Ništa od ovoga nije istina https://t.co/ZZk40vTKIM pic.twitter.com/RAnNVcHDmR
— Paul Calcraft (@paul_cal) 18. veljače 2025
Istina Ostaje U Ljudskim Rukama
Hoće li chatbotovi ikada prestati halucinirati? Slaba točka AI-ja očita je već godinama – vidjeli smo to u podcastima poput Planet Money kada su testirali epizode generirane AI-jem 2023. godine, a i dalje to vidimo u najnaprednijim modelima, čak i onima dizajniranim za ekskluzivnu upotrebu stručnjaka i tehnološki pismenih zajednica.
Možda je vrijeme da prihvatimo činjenicu da će ovo ostati problem i shvatimo da moramo preuzeti odgovornost za ono što stvaramo i dijelimo koristeći alate umjetne inteligencije.
Činjenica da, iako se čini kao dobro poznat problem, stručnjaci za rizike umjetne inteligencije sami nasjedaju na uvjerljivo i uvjeravo pisanje AI-ja, definitivno je zabrinjavajuća. Situacija postaje još složenija kako se prihvaćanje nastavlja ubrzavati punom brzinom, premašujući digitalnu pismenost, dok se nesuglasice i izmišljeni citati množe.
Slučajevi u kojima su izložene halucinacije umjetne inteligencije obično su oni u kojima je provjera činjenica ključna – nešto što bi Zuckerberg trebao imati na umu sada kada je ukinuo svoj odjel za provjeru činjenica. Ovo je posebno vidljivo u sudnicama, gdje odvjetnici i suci rade na provjeri činjenica i slučajeva, te u medijima, gdje je točnost i validacija izvora od presudne važnosti.
Ali što je s slučajevima kada nitko ne proučava te detalje? Što se događa u svakodnevnim, osobnijim kontekstima? Trenutno milijuni studenata uče napamet odgovore generirane umjetnom inteligencijom za svoje studije, korisnici slijede upute koje pruža AI za liječenje bolesti, a drugi se upoznaju s novim temama, potpuno vjerujući tehnologiji.
Posljedice ove nove stvarnosti s kojom se suočavamo su nemjerljive i nepredvidive, a istina – za sada – je u rukama onih koji si uzimaju vremena za propitivanje i provjeru.
Ostavite komentar
Otkaži