Zabrinutost oko umjetne inteligencije vrlo je spekulativna, ali postoje stvarni rizici, kaže čovjek koji želi demistificirati tehnologiju na božićnim predavanjima Kraljevske institucije
Profesor Michael Wooldridge, koji će održati ovogodišnja božićna predavanja na Kraljevskoj instituciji, rekao je da je više zabrinut da bi umjetna inteligencija mogla postati šef iz pakla, nadzirući svaki e-mail zaposlenika i nudeći stalne povratne informacije te da će čak – potencijalno – odlučivati o tome tko će dobiti otkaz. 'Postoje neki prototipski primjeri tih alata koji su danas dostupni. I smatram da je to vrlo, vrlo uznemirujuće', rekao je.
Wooldridge, profesor računalnih znanosti na Sveučilištu u Oxfordu, rekao je da želi upotrijebiti najprestižnija britanska javna znanstvena predavanja za demistificiranje umjetne inteligencije. 'Ovo je godina u kojoj smo prvi put imali masovno tržište, AI alate opće namjene, pri čemu mislim na ChatGPT. Vrlo je lako biti zaslijepljen', ustvrdio je, piše The Guardian.
'Ovo je prvi put da smo imali AI koji djeluje kao AI koji nam je obećan, AI koji smo vidjeli u filmovima, računalnim igrama i knjigama', dodao je Wooldridge te naglasio: 'No alati kao što je ChatGPT nisu bili ni magični ni mistični.' Stoga smatra da su predavanja ključna da bi ljudi vidjeli kako ta tehnologija funkcionira te da ih se tako pripremi na ulazak u svijet 'u kojem je to još jedan alat koji koriste, pa ga neće promatrati ništa drugačije od džepnog kalkulatora ili računala'.
Na predavanjima će biti govora i o robotima, deepfakeu, ali i Turingovu testu. Prije više od 70 godina, kada su nastali prvi koncepti umjetne inteligencije, Alan Turing objavio je rad koji opisuje kako je identificirati. Kasnije poznat kao Turingov test, koristio se desetljećima za razlikovanje čovjeka od umjetne inteligencije, odnosno kao mjera za napredak umjetne inteligencije.
Dok neki stručnjaci ostaju nepokolebljivi u stavu da test još nitko nije prošao, drugi se ne slažu. 'Neki moji kolege misle da smo, u osnovi, prošli Turingov test', rekao je Wooldridge. U nekom trenutku, vrlo tiho, u posljednjih nekoliko godina, tehnologija je došla do točke u kojoj može proizvesti tekst koji se ne može razlikovati od teksta što bi ga proizveo čovjek, naveli su pojedini stručnjaci.
Wooldridge, međutim, ima drugačiji stav. 'Mislim da nam govori da Turingov test, koliko god bio jednostavan i povijesno važan, zapravo nije dobar test za umjetnu inteligenciju', smatra.
Za profesora je uzbudljiv aspekt današnje tehnologije njezin potencijal da eksperimentalno testira pitanja koja su prije bila prepuštena filozofiji – uključujući ono mogu li strojevi postati svjesni. 'Zapravo uopće ne razumijemo kako ljudska svijest funkcionira', rekao je Wooldridge. No, dodao je, mnogi su tvrdili da su iskustva važna.
Naprimjer, dok ljudi mogu doživjeti miris i okus kave, veliki jezični modeli kao što je ChatGPT to ne mogu. 'Pročitat će tisuće i tisuće opisa ispijanja, okusa i različitih marki kave, ali nikada nisu okusili kavu ili išta drugo doživjeli', rekao je Wooldridge.
Štoviše, ako se razgovor prekine, takvi sustavi nemaju osjećaj da vrijeme prolazi. 'No dok takvi čimbenici objašnjavaju zašto se alati poput ChatGPT-ja ne smatraju svjesnima, strojevi s takvim sposobnostima možda su ipak mogući', tvrdi Wooldridge. Uostalom, ljudi su samo hrpa atoma, kaže.
'Samo iz tog razloga ne mislim da postoji konkretan znanstveni argument koji bi ukazivao na to da strojevi ne mogu biti svjesni', rekao je, dodajući da, iako bi se to vjerojatno razlikovalo od ljudske svijesti, moglo bi ipak zahtijevati neku značajnu interakciju sa svijetom.
Budući da umjetna inteligencija već transformira područja od zdravstva do umjetnosti, čini se da je potencijal tehnologije ogroman. No Wooldridge kaže da to također predstavlja rizik. 'Može čitati vaše feedove na društvenim mrežama, otkriti vaše političke sklonosti, a zatim vas hraniti dezinformacijskim pričama kako bi vas pokušala natjerati, naprimjer, da date svoj glas nekoj drugoj opciji', ističe profesor.
Ostala zabrinutost uključuje bojazan da bi sustavi kao što je ChatGPT mogli korisnicima dati loše i opasne medicinske savjete. Ključ za suočavanje s trenutnim rizicima, tvrdi profesor, jest poticanje skepticizma te osiguranje transparentnosti i odgovornosti. 'Ublažavanje rizika od izumiranja uzrokovanog umjetnom inteligencijom trebalo bi biti globalni prioritet uz druge rizike na društvenoj razini, kao što su pandemija i nuklearni rat', rekao je profesor.
'Ako ne damo kontrolu nad nečim smrtonosnim umjetnoj inteligenciji, onda je mnogo teže vidjeti kako bi to doista moglo predstavljati egzistencijalni rizik', rekao je.
Iako Wooldridge pozdravlja prvi globalni samit o sigurnosti umjetne inteligencije ove jeseni i stvaranje radne skupine u Ujedinjenom Kraljevstvu za razvoj sigurnih i pouzdanih velikih jezičnih modela, i dalje mu nisu uvjerljive paralele koje su neki povukli između zabrinutosti J. Roberta Oppenheimera oko razvoja nuklearnih bombi i onih koje iznose današnji istraživači umjetne inteligencije.