Prije nego što zaključimo da je neka umjetna inteligencija svjesna sebe, moramo se zapitati raspolaže li motivacijom, perspektivom i pokretnom silom
Djelatnik Googlea koji je nedavno objavio svoje zaključke o chatbotu LaMBDA potaknuo je ponovnu raspravu o umjetnoj inteligenciji i onom što je čini 'svjesnom'.
Pritisak za otkrivanje dokaza prije svega je vezan uz ljude koji su rekli da je stroj svjestan sam sebe. Pitanje je, doduše, kako dokaz mora izgledati? Ako chatbot kaže 'ja sam svjestan', tko odlučuje je li to istina ili ne?
Svjesno biće možemo definirati kao entitet svjestan svojeg postojanja te na kojeg utječe to saznanje - ono ima osjećaje. Drugim riječima, piše The Next Web, umjetna inteligencija koja je svjesna svojeg postojanja mora imati tri stvari: pokretnu snagu, gledište i motivaciju.
Pokretna snaga
Da bismo ljude smatrali svjesnima, pametnima i svjesnima samih sebe, moraju imati pokretnu snagu. Ako možete zamisliti nekog u stalnom vegetativnom stanju, možete zamisliti čovjeka bez pokretne snage.
Ljudska pokretna snaga sjedinjuje dva specifična faktora koje bi programeri i ljubitelji umjetne inteligencije pokušali razumjeti: mogućnost djelovanja i demonstriranja usputnog rezoniranja. Trenutni sustavi umjetne inteligencije nemaju pokretnu snagu. Umjetna inteligencija ne može djelovati osim ako ju ne potaknete i ne može objasniti svoje postupke zato što je rezultat prethodno definiranih algoritama koje pokreću vanjske sile. Stručnjak za umjetnu inteligenciju iz Googlea koji je, navodno, povjerovao da je LaMBDA postala svjesna same sebe pomiješao je utjelovljenje s pokretnom snagom.
Utjelovljenje, u ovom slučaju, referira se na mogućnost nečega da naslijedi/nastani subjekt koji to nije. Ako snimimo svoj glas na kazetofon i onda taj uređaj sakrijemo unutar plišane igračke te pritisnemo play, utjelovili smo lutku, ali ju nismo učinili svjesnom.
Ako joj pružimo njezin jedinstven glas i umjesto kazetofona koristimo nešto puno manje primjetno, ona i dalje nije samosvjesna - samo smo nadogradili iluziju. Bez obzira na to koliko je promatrač zbunjen, plišana igračka nikad ne djeluje sama od sebe.
LaMBDA ne odgovara na upit kao autonomno biće, već kao sustav koji reagira na poticaj te koji bira koji će odgovor pružiti - slično kao što lutka sa zvučnikom različito reagira ovisno o pritisnutom senzoru. Ako LaMBDA-i date bazu podataka iskopanu iz društvenih mreža, Reddita i Wikipedije, ona će razviti odgovore koji izgledaju kao da potječu iz tih izvora. Ako ju trenirate da odgovore stvara isključivo prema tekstu iz, recimo, crtanog filma sa Zekoslavom Mrkvom, razgovarat ćete s nečim što zvuči kao ikonički animirani zec.
Sustavi umjetne inteligencije ne mogu djelovati pokretnom snagom, već ju mogu imitirati - oni će 'vratiti' samo stvari koje im 'pružite' - ništa više.
Gledište
Drugo pravilo je lakše shvatljivo - stvarnost je moguće gledati samo iz vaše jedinstvene perspektive ili gledišta. Jedno od privremenih rješenja za to je suosjećanje, no stvar je u tome što nitko ne može u cijelosti razumjeti kakav je osjećaj biti netko drugi i obrnuto. Gledište je upravo zbog toga važno za pokretnu snagu - ono je dio metodike kojom definiramo sebe same.
LaMBDA, GPT-3 i druge umjetne inteligencije ne posjeduju perspektivu zato što nemaju pokretnu snagu, jer nemoguće je uperiti prstom na neku točku i reći - tu LaMBDA živi.
Ako LaMBDU stavite u robota, ona može postati chatbot. Ona nema gledište pomoću kojeg može zaključiti da je 'u ovom slučaju robot'. Ona ne može djelovati kao robot iz istog razloga zbog kojeg kalkulator ne može pisati poeziju - riječ je o usko specijaliziranom računalnom sustavu, piše The Next Web.
Ako želimo da LaMBDA radi kao robot, morali bismo ju kombinirati s drugim sustavima za umjetnu inteligenciju, što bi izgledalo kao spajanje dva plišana medvjedića u jednog - ne bi postali megamedvjedić opremljen s dva kazetofona, već dva modela koji rade jedan uz drugog.
Ako spojite milijardu medvjedića jednog uz drugog i u svakog stavite drugu vrpcu, pa nakon toga stvorite algoritam koji može pretraživati kazete i spojiti dostupne podatke kako bi generirao poseban izgovor, dobili biste analognu verziju GPT-a 3 i LaMBDA-e.
Programer iz Googlea koji je zaključio da je chatbot postao živ i svjestan rekao je da umjetna inteligencija 'voli provoditi vrijeme s prijateljima i obitelji'. Stroj u ovom slučaju ne prikazuje svoju perspektivu, već izbacuje riječi koje zvuče dovoljno prikladno da bismo ih mogli interpretirati. Kritično razmišljanje trebalo bi nas dovesti do pitanja kako umjetna inteligencija uopće može imati prijatelje i obitelj.
Umjetne inteligencije nisu računala - one nemaju mrežne kartice, RAM, procesore ili hladnjake. Oni nisu fizički entiteti, što znači da ne mogu odjednom 'odlučiti' provjeriti što ima na internetu ili pretražiti druge izvore spojene na isti oblak. One ne mogu razgledati i zaključiti da su same u labosu ili na tvrdom disku. Zapitajte se imaju li brojevi osjećaje? Može li broj 5 imati mišljenje o slovu D? Što bi se promijenilo da smo spojili trilijune brojeva i slova u jedno? Umjetna inteligencija nema pokretnu snagu, već je svedena na brojeve i simbole. Ona je jednako robot ili računalo koliko je zrakoplov pun putnika osoba.
Motivacija
Zadnji komadić slagalice je motivacija. U sebi nosimo dubok osjećaj prisutnosti koji nam dozvoljava jako dobro predviđanje uobičajenih ishoda, što stvara svjetonazor i dozvoljava povezivanje postojanja u odnosu na sve što se odvija izvan pozicije poduzimanja iz koje nastaje naše gledište.
Ono što je interesantno je to što naše motivacije mogu utjecati na percepciju. Upravo zato možemo objasniti postupke čak i kad nisu racionalni i možemo s radošću sudjelovati u situaciji za koju znamo da nije stvarna. Uzmite u obzir, recimo, zabavu. Sjedite i gledate film na TV-u koji je puno veći od vašeg prošlog TV-a.
Na početku biste mogli biti impresionirani ili zaneseni novom tehnologijom - razlike između vašeg novog i starog TV-a bile bi više nego očite. Možda bi vas oduševila čistoća slike ili dubina kontrasta i veličina uređaja, no s vremenom ćete ekran jednostavno prestati percipirati zato što su važne stvari ono za što mislite da je važno, a to je film.
Kad sjedimo ispred TV-a kako bismo se zabavili, naši su interesi potisnuti skepticizam premda znamo da ljudi na ekranu nisu u našoj dnevnoj sobi. Ista je stvar kod programera umjetnih inteligencija. Oni ne bi smjeli prosuđivati učinkovitost sustava umjetne inteligencije po tome koliko su lakovjerni prema načinu na koji taj proizvod radi.
Kad algoritmi i baze podataka u glavi programera krenu nestajati na isti način na koji televizija nestaje kad gledamo film, vrijeme je za stanku i kratko razmišljanje o temeljnim uvjerenjima, bez obzira je li rezultat zanimljiviji od načina na koji ste do njega uopće došli. GPT-3 i LaMBDA su složene tvorevine koje funkcioniraju na isti glup način - oznake su sve što je važno.
Ako LaMBDA-i damo zadatak da odgovori na pitanje kakav je okus jabuke, ona će prokopati bazu podataka za rješenjem te će ga pokušati amalgamirati kako bi zvučala koherentno - tu u igru ulaze parametri o kojima cijelo vrijeme govorimo. Oni su u stvarnosti milijarde okrećućih zupčanika.
Umjetna inteligencija u stvarnosti nema nikakve ideje što je to jabuka (ili bilo što drugo) - ona nema pokretnu snagu, gledište ni perspektivu. Jabuka je samo specifičan niz simbola koje pretražuje u bazi podataka. Ako se zavučemo u tu bazu informacija i zamijenimo svako spominjanje riječi 'jabuka' riječju 'gnojivo', umjetna bi inteligencija i dalje nudila rečenice poput 'od gnojiva se rade izvrsne pite' ili 'većina ljudi okus gnojiva opisuje blagim, hrskavim i slatkim'.
Poanta je da se svjesno biće može snalaziti u stvarnosti čak i ako promijenimo oznake. Prvi govornik hrvatskog jezika koji se susreo s engleskim govornikom nije odjednom zaključio da je ok gurnuti ruku u englesku vatru zato što je oni zovu fire.
Umjetna inteligencija bez pokretne snage ne može imati gledište, a bez gledišta nema motivacije. Bez tih triju stvari - ona ne može biti svjesna.