Više je razloga za to što od umjetne inteligencije možete dobiti netočne, pa i posve besmislene odgovore. Taj će problem biti rješavan u hodu, stoga je dobro znati zašto se to događa i što možete očekivati
Googleova nova značajka pretraživanja AI Overviews postala je metom brojnih kritika zbog toga što nudi činjenično netočne i zavaravajuće odgovore na upite.
Značajka pokrenuta prije dva tjedna prikazuje na vrhu stranice sažetak odgovora na uobičajena pitanja u Googleovoj tražilici, a koje pribavlja iz različitih izvora širom weba. Trebala bi pritom pomoći pri pronalaženju odgovora na složenija pitanja.
Umjesto toga, predlaže da se sir ljepilom zalijepi na pizzu ako se odlijepi, sugerira konzumaciju kamenja radi poboljšavanja zdravlja i ponavlja više puta opovrgnute teorije zavjere, poput one da je bivši američki predsjednik Barack Obama musliman.
Nije jedina sklona takvom ponašanju. Istraživanje koje je proveo startup Vectara, prenosi Euronews, otkrilo je da roboti za brbljanje temeljeni na umjetnoj inteligenciji izmišljaju informacije između tri i 27 posto vremena.
Što su halucinacije umjetne inteligencije?
Veliki jezični modeli (large language models, LLM), koji pokreću chatbotove kao što su OpenAI-jev ChatGPT i Googleov Gemini, uče predvidjeti odgovor na temelju obrazaca koje promatraju. Model izračunava najvjerojatnije sljedeće riječi za odgovor na vaše pitanje na temelju onoga što se nalazi u njihovoj bazi podataka.
Ali ponekad podaci o obuci modela mogu biti nepotpuni ili pristrani, što dovodi do netočnih odgovora, a to se kolokvijalno naziva halucinacijama. Prema Googleu, više je razloga zbog kojih se one događaju.
To bi mogli biti nedostatni podaci o obuci koje koristi model, netočne pretpostavke ili skrivene pristranosti u informacijama koje upotrebljava chatbot. Google je identificirao nekoliko vrsta halucinacija umjetne inteligencije, poput netočnih predviđanja događaja, lažno pozitivnih rezultata identificiranjem nepostojećih prijetnji i lažnih negativnih rezultata.
U Googleu priznaju da halucinacije mogu imati značajne posljedice. Primjerice, zdravstvena umjetna inteligencija može pogrešno detektirati benignu promjenu na koži kao malignu, što kao posljedicu može imati nepotreban medicinski zahvat ili tretman.
Nisu, doduše, sve halucinacije loše. Recimo, mogu biti korisne u kreativnim situacijama, pri stvaranju teksta ili slike. Pitanje je kako ih navesti na razlikovanje kreativnog od činjeničnog.
Kvaliteta podataka je ključna
Točnost odgovora svodi se na kvalitetu skupa podataka s kojima se radi. Što je manje točnih podataka, to će halucinacije biti vjerojatnije.
Trenutno modeli umjetne inteligencije koriste puno podataka s weba i drugih javno dostupnih podataka. OpenAI također sklapa ugovore s masovnim medijskim organizacijama kao što su Axel Springer i News Corp te publikacijama kao što je Le Monde za licenciranje njihovog sadržaja da bi mogli trenirati svoje modele na pouzdanijim podacima.
Nije, dakle, problem u količini (iako i ona igra ulogu), već u kvaliteti izvornih podataka. Taj će problem očito biti rješavan u hodu.
Kako zaustaviti halucinacije?
Postoji nekoliko tehnika koje Google preporučuje za usporavanje ovog problema, poput regularizacije, koja kažnjava model zbog ekstremnih predviđanja. To je moguće postići ograničavanjem broja mogućih ishoda koje može predvidjeti.
Treneri također mogu dati povratne informacije svom modelu, govoreći im što im se svidjelo, a što nije svidjelo u odgovoru, kako bi chatbotu pomogli naučiti što traže korisnici.
Umjetna inteligencija također bi trebala biti obučena na osnovi relevantnih informacija za ono što će raditi, poput korištenja skupa podataka medicinskih slika za dijagnosticiranje bolesti.
Tvrtke s LLM-ovima mogle bi zabilježiti najčešće upite i zatim okupiti tim s pojedincima s različitim vještinama da bi smislili kako poboljšati svoje odgovore. Velike tvrtke s velikom računalnom snagom također bi mogle isprobati stvaranje vlastitih evolucijskih algoritama za poboljšanje pouzdanosti svojih modela.
U ovom pristupu modeli umjetne inteligencije haluciniraju ili izmišljaju podatke o obuci za druge modele s istinitim informacijama, već identificirane matematičkim jednadžbama. Ako se tisuće modela natječu jedni protiv drugih u pronalaženju istinitosti, proizvedeni modeli bit će manje skloni halucinacijama.
Manje tvrtke mogu se okušati u ručnom finom podešavanju podataka koje njihovi modeli smatraju pouzdanima ili istinitima na temelju vlastitog skupa standarda. To je radno intenzivnije i skuplje. Korisnici također trebaju biti svjesni toga da do halucinacija može doći i razumjeti koja su ograničenja umjetne inteligencije.