Za osobe na tehnološkoj konferenciji festivala u američkom gradu Austinu, skandal koji je izbio nakon što je Googleov chatbot Gemini stvorio slike crnih i azijskih nacističkih vojnika predstavlja upozorenje o moći koju umjetna inteligencija (AI) može dati tehnološkim divovima
Sundar Pichai, šef Googlea, prošlog je mjeseca kritizirao greške tvrtkine aplikacije Gemini kao 'potpuno neprihvatljive' nakon što su gafovi poput slika etnički raznolikih nacističkih vojnika prisilili tvrtku da korisnicima privremeno onemogući generiranje slika ljudi.
Korisnici društvenih mreža su ismijali i kritizirali Google zbog netočnih povijesnih prikaza poput crne američke senatorice iz 1800-tih godina, pri čemu je prva takva dužnosnica izabrana tek 1992.
'Zasigurno smo zabrljali što se tiče stvaranja slika', rekao je suosnivač Googlea Sergey Brin na nedavnom 'hackathonu', događaju u kojem računarski programeri i ostali uključeni u razvoj softvera intenzivno surađuju na projektima, posvećenom umjetnoj inteligenciji. Dodao je da je tvrtka trebala temeljitije testirati Gemini.
Ljudi na tehnološkoj konferenciji festivala South by Southwest u Austinu u američkoj saveznoj državi Teksas rekli su da greške Geminija naglašavaju pretjeranu moć koju nekoliko tvrtki ima nad platformama umjetne inteligencije koje će promijeniti način na koji ljudi žive i rade.
'U biti, (Gemini) je bio suviše 'woke' ', kazao je Joshua Weaver, odvjetnik i tehnološki poduzetnik, što bi značilo da je Google pretjerao u svojim naporima da promovira uključivost i različitost. Google je ubrzo popravio svoje greške, no temeljni problem je i dalje tu, rekao je Charlie Burgoyne, šef teksaškog laboratorija primijenjene znanosti Valkyrie. Izjednačio je Googleovo popravljanje Geminija s lijepljenjem flastera na prostrjelnu ranu.
Iako je Google dugo imao dovoljno vremena da usavršava svoje proizvode, sada se s Microsoftom, OpenAI-om, Anthropicom i drugima utrkuje za prevlast na polju umjetne inteligencije, istaknuo je Weaver, dodavši da 'se kreću brže nego što se znaju kretati'.
Pogreške napravljene u pokušaju da se bude kulturno osjetljiv predstavljaju izvor svađe, osobito s obzirom na napete političke podjele u Sjedinjenim Američkim Državama, što je situacija koju dodatno pogoršava platforma Elona Muska X, bivši Twitter.
'Ljudi na Twitteru će veoma rado slaviti bilo kakvu sramotnu stvar koja se dogodi u tehnološkom (sektoru)', kazao je Weaver, dodavši da je reakcija na gaf s nacističkim vojnicima 'prenapuhana'. Nezgoda, međutim, dovodi u pitanje stupanj kontrole koju korisnici alata umjetne inteligencije imaju nad informacijama, smatra Weaver.
U narednom desetljeću, količina informacija ili dezinformacija proizvedenih umjetnom inteligencijom mogla bi zasjeniti one koje proizvode ljudi, što bi značilo da će oni koji budu upravljali mjerama zaštite umjetne inteligencije imati ogroman utjecaj na svijet, rekao je Weaver.
Pristranost
Karen Palmer, nagrađivana kreatorica pomiješane stvarnosti iz tvrtke Interactive Films Ltd., rekla je da može zamisliti budućnost u kojoj netko ulazi u robotaksi i 'ako vas umjetna inteligencija skenira i smatra da se protiv vas vode prekršajni postupci, bit ćete odvedeni u lokalnu policijsku postaju', umjesto do vašeg željenog odredišta.
Umjetna inteligencija se trenira ogromnim količinama podataka i može se primijeniti na sve širi raspon zadataka, od stvaranja slika ili zvuka do odlučivanja tko može dobiti kredit ili je li medicinskim pregledom otkriven rak.
No, ti podaci dolaze iz svijeta koji je prepun kulturne pristranosti, dezinformacija i socijalne nejednakosti, internetskih sadržaja koji mogu uključivati opušteno čavrljanje između prijatelja ili namjerno pretjerane i provokativne objave, a modeli umjetne inteligencije to ne mogu razumijeti.
Googleovi inženjeri su pokušali uravnotežiti algoritme Geminija kako bi pružao rezultate koji bolje održavaju ljudsku raznolikost. Taj im se pokušaj obio o glavu. 'Može biti dosta zamršeno, osjetljivo i suptilno ustanoviti gdje ima pristranosti i na koji je način uključena', rekao je tehnološki odvjetnik Alex Shahrestani iz tvrtke Promise Legal.
Čak i dobronamjerni inženjeri uključeni u treniranje umjetne inteligencije ne mogu zanemariti vlastiti životna iskustva i podsvjesnu pristranost u procesu, smatraju on i drugi.
Burgoyne iz laboratorija Valykrie također je opomenuo tehnološke divove zbog sakrivanja načina funkcioniranja generativne umjetne inteligencije u 'crnim kutijama' pa korisnici ne mogu otkriti skrivene pristranosti. 'Sposobnosti proizvodnje (sadržaja) dosad nadilaze naše razumijevanje metodologije', kazao je.