Desetljećima je vojska koristila autonomno oružje poput mina, torpeda i toplinski vođenih projektila koji djeluju na temelju jednostavne, reaktivne povratne informacije bez ljudske kontrole. Međutim, umjetna inteligencija (AI) sada je ušla u arenu oružja
Prema Kanaki Rajan, izvanrednoj profesorici neurobiologije na Institutu Blavatnik na Medicinskoj školi Harvard (Harvard Medical School - HMS), te njezinom timu, autonomna oružja pokretana umjetnom inteligencijom predstavljaju novu eru u ratovanju, ali i konkretnu prijetnju znanstvenom napretku i temeljnim istraživanjima.
Oružje pokretano umjetnom inteligencijom, koje često uključuje dronove ili robote, aktivno se razvija i primjenjuje, rekla je Rajan. Ona očekuje da će s vremenom to oružje postati sposobnije, sofisticiranije i naširoko korištene, s obzirom na to koliko se lako takva tehnologija širi.
Znanstenica je, zajedno sa suradnicima s HMS-a u Riley Simmons-Edler i Ryan Badman te doktorantom MIT-a Shayne Longpre, istaknula svoje brige. U razgovoru za Harvard Medicine News, Rajan, također suosnivačica Instituta Kempner za proučavanje prirodne i umjetne inteligencije na Sveučilištu Harvard, objasnila je zašto su se ona i njezin tim odlučili zadubiti u temu vojske pokretane umjetnom inteligencijom, što vide kao najveće rizike i što misle da bi se trebalo dogoditi sljedeće.
'Autonomno naoružanje moglo bi olakšati državama ulazak u sukobe, a to je velika opasnost', napominje Rajan. 'Također, zabrinuti smo da bi vojni interesi mogli cenzurirati ili usmjeravati civilna istraživanja prema vojnoj primjeni.'
'Počeli smo razmatrati ovu temu kao reakciju na niz apokaliptičnih predviđanja o umjetnoj općoj inteligenciji koja su kružila u proljeće 2023. Pitali smo se - ako su ta predviđanja doista pretjerana, koji su onda stvarni rizici za ljudsko društvo? Proučili smo kako vojska koristi umjetnu inteligenciju i vidjeli da vojno istraživanje i razvoj snažno guraju prema izgradnji sustava autonomnog oružja pokretanog umjetnom inteligencijom, s globalnim implikacijama.
Shvatili smo da akademska istraživačka zajednica AI neće biti izolirana od posljedica široko rasprostranjenog razvoja ovog oružja. Vojsci često nedostaje dovoljno stručnosti za razvoj i implementaciju AI tehnologije bez vanjskog savjeta, pa se moraju osloniti na znanje akademskih i industrijskih stručnjaka za AI. To pokreće važna etička i praktična pitanja za istraživače i administratore na akademskim institucijama, slična onima oko bilo koje velike korporacije koja financira akademsko istraživanje', rekla je Rajan za Harvard Medicine News.
Etika i odgovornost u doba AI ratovanja
Postoje brojni rizici uključeni u razvoj oružja pokretanog umjetnom inteligencijom, ali tri su najveća koja znanstvenici primjećuju.
Jedna od glavnih opasnosti je što razvoj AI naoružanja može smanjiti ili preusmjeriti ljudsku odgovornost u donošenju odluka na bojnom polju. Nadalje, Rajan upozorava da takva tehnologija može voditi do češćih oružanih sukoba, jer smanjenje rizika za ljudske živote može politički olakšati odluke o ratu.
Upozoravaju i da bi oružje pokretano umjetnom inteligencijom moglo dovesti do geopolitičke nestabilnosti, a njihov razvoj utjecati na civilna istraživanja umjetne inteligencije u akademskoj zajednici i industriji.
Slične zabrinutosti postojale su i tijekom Hladnog rata, kada su istraživači u područjima poput nuklearne fizike i raketne tehnologije morali raditi pod strogim ograničenjima, uključujući cenzuru i sigurnosne provjere. S razvojem AI tehnologije, Rajan predviđa slične izazove za istraživače u civilnim sektorima.
AI će odlučivati bez ljudi?
Znanstvenica kaže da je riječ o novom krajoliku koji se brzo mijenja; od 2023. brojne velike sile počele su brzo i javno prihvaćati oružje pokretano umjetnom inteligencijom. S time je došao novi veliki izazov - tehnološke tvrtke nejasne su u pogledu stupnja autonomije i ljudskog nadzora u svojim sustavima oružja.
'To bi moglo značiti da će AI donositi više odluka, bez da su to uključeni ljudi. Nažalost, kako ti sustavi postaju složeniji i moćniji, a vrijeme reakcije u ratu mora biti brže, vjerojatnije je da će takav ishod postati norma. Nadalje, viđenje 'čovjeka u petlji' na autonomnom oružju koje pokreće umjetna inteligencija moglo bi uljuljati istraživače u pomisao da je sustav etičan prema vojnim standardima, dok zapravo ne uključuje smisleno ljude u donošenje odluka', upozorava Rajan, dodajući:
'Iako je potrebno još puno posla za izradu oružja pokretanog umjetnom inteligencijom, većina osnovnih algoritama već je predložena ili je u središtu velikih akademskih i industrijskih istraživanja motiviranih civilnim primjenama - na primjer, samovozećim vozilima. Imajući to na umu, moramo uzeti u obzir našu odgovornost kao znanstvenika i istraživača u etičkom vođenju primjene ovih tehnologija i kako upravljati učincima vojnog interesa na naše istraživanje.'
Budućnost istraživanja i suradnje
Rajan također naglašava da se moraju uspostaviti granice koje istraživači ne smiju prelaziti u suradnji s vojskom. 'Moramo zaštititi civilna istraživanja i osigurati da se AI koristi za dobrobit čovječanstva, a ne za pogoršanje sukoba', naglašava.
'Neki znanstvenici pozvali su na potpunu zabranu vojne umjetne inteligencije. To je moralno idealno, ali nije realno; umjetna inteligencija je previše korisna za vojne svrhe da bi se postigao međunarodni konsenzus potreban za uspostavljanje ili provedbu takve zabrane', kaže Rajan, dodajući: 'Treba zabraniti i regulirati najteže klase oružja umjetne inteligencije i što je prije moguće postaviti granice koje se ne smiju prelaziti.'
U svijetu gdje je vojna primjena umjetne inteligencije sve prisutnija, Rajan i njezin tim pozivaju na oprez, odgovornost i transparentnost kako bi znanost i tehnologija služili općem dobru, a ne destrukciji.