Malo je vjerojatno kako će pismo imati ikakav utjecaj na trenutnu klimu u istraživanju umjetne inteligencije, zbog koje tehnološke tvrtke poput Googlea i Microsofta žure s uvođenjem novih proizvoda
Brojni poznati istraživači umjetne inteligencije - i Elon Musk - potpisali su otvoreno pismo u kojem pozivaju laboratorije umjetne inteligencije diljem svijeta na zaustavljanje razvoja velikih sustava umjetne inteligencije, navodeći kao razlog strah od dubokih rizika za društvo i čovječanstvo.
U pismu, koje je objavio neprofitni institut Future of Life, navodi se kako su laboratoriji umjetne inteligencije trenutno u utrci za razvoj i implementaciju sustava strojnog učenja koja se otela kontroli.
'Te sustave nitko - čak ni njihovi kreatori - ne mogu razumjeti, predvidjeti , ili pouzdano kontrolirati', navedeno je u pismu.
Stoga su istraživači pozvali sve laboratorije umjetne inteligencije na prekidanje obuke sustava umjetne inteligencije moćnijih od GPT-4 odmah, u trajanju od najmanje šest mjeseci. Ta bi stanka trebala biti javna i provjerljiva te uključiti sve ključne aktere. U suprotnom, vlade diljem svijeta bi trebale uvesti moratorij.
Moguć utjecaj na politiku
Među potpisnicima otvorenog pisma su autor Yuval Noah Harari, suosnivač Applea Steve Wozniak, suosnivač Skypea Jaan Tallinn, političar Andrew Yang i brojni poznati istraživači i izvršni direktori umjetne inteligencije, uključujući Stuarta Russella, Yoshuu Bengia, Garyja Marcusa i Emada Mostaquea.
Potpuni popis potpisnika može se vidjeti ovdje, iako s novim imenima treba postupati s oprezom jer su pojedina bila dodana kao šala.
Malo je vjerojatno, piše Verge, kako će pismo imati ikakav utjecaj na trenutnu klimu u istraživanju umjetne inteligencije, zbog koje tehnološke tvrtke poput Googlea i Microsofta žure s uvođenjem novih proizvoda, često zanemarujući ranije izraženu zabrinutost oko sigurnosti i etike.
Ali, svakako je znak rastućeg protivljenja pristupu u stilu 'isporuči sad, popravi kasnije'. To bi se protivljenje potencijalno moglo probiti u političku domenu.
Čak je i sam OpenAI, startup u kojem je nastao popularni alat ChatGPT, priznao kako će moguće biti potreban 'neovisan pregled' budućih sustava umjetne inteligencije kako bi se osiguralo da ispunjavaju sigurnosne standarde.
Potpisnici otvorenog pisma uvjereni su kako je to vrijeme već došlo.
'Laboratoriji umjetne inteligencije i neovisni stručnjaci trebali bi iskoristiti ovu stanku za zajednički razvoj i implementaciju skupa zajedničkih sigurnosnih protokola za napredni dizajn i razvoj umjetne inteligencije koji su strogo revidirani i nadzirani od strane neovisnih vanjskih stručnjaka.
Ti bi protokoli trebali osigurati da su sustavi koji ih se pridržavaju sigurni izvan razumne sumnje', navedeno je u pismu.