Najnoviji izvještaj koji su sročili stručnjaci sa uglednih sveučilišta Yale, Oxford i Cambridge u suradnji sa Muskovim OpenAI-jem upozorava se na potencijalne scenarije u kojima se tekovine modernog doba mogu pretvoriti u alate uništenja
Strah od umjetne inteligencije koja se okreće protiv svojih stvoritelja tema je brojnih znanstveno-fantastičnih filmova i novela, no u doba gdje 'pametnu' tehnologiju nalazimo na svakom koraku - stvari mogu krenuti nizbrdo. Tako barem tvrdi najnovija studija od 101 stranice koju potpisuju Yale, Oxford, Cambridge i OpenAI, izvještava Techradar.
U njoj se naglašava prava opasnost tehnologije koju će zlorabiti hakeri koji raspolažu malicioznim kodom koji cilja na slabosti automatiziranih sustava. Drugim riječima, ako vas netko zbilja ne voli, hakirat će vaš samovozeći automobil da se pri najvećoj brzini, recimo, sjuri s mosta.
Prilično dugi popis opasnih primjena prvo je prokomentirao CNBC koji je naglasio da umjetna inteligencija ima 'dvostruku primjenu'. Primjera radi, kamere na pametnim telefonima mogu se koristiti za lov na teroriste, kao i špijuniranje nedužnih civila. Novinari poznate televizije naglasili su da isto tako leteći dronovi za dostavu namirnica mogu postati opasne letjelice opremljene strojnicama.
Opasnost iza svakog kuta
Na potpuno isti način hakeri, naglašava CNBC, mogu promijeniti svega par parametara u skripti samovozećeg automobila (ili više njih) kako bi ga natjerali da u cijelosti ignorira prometna pravila. Autori rada su radi lakšeg snalaženja podijelili prijetnje na tri kategorije: fizičku, digitalnu i političku.
- Umjetna inteligencija već se dulje vrijeme koristi za 'češljanje' koda web stranica i web sučelja. U budućnosti bi se ta ista skripta mogla prilagoditi ljudskim navikama surfanja, učinivši DoS napade iznimno nepredvidivima.
- Automatizacija bi također mogla 'korisnicima niskog tehnološkog obrazovanja dati mogućnosti napada visoke razine'. U teoriji, naime, jedna osoba vrlo lako može pilotirati 'mini-rojem' dronova pomoću skripte za koordinaciju leta.
- Politički utjecaj uključuje 'deepfake' tehnologiju napravljenu za blaćenje ugleda političara ili automatiziranim dezinformiranjem ili trolanjem kojeg ruske farme trolova koriste već dulje vrijeme.
Pripreme za scenarij sudnjeg dana
Ovi primjeri su, makar zvučali opasno, osnovani na hipotezi a ne konkretno dokazanim slučajevima. Izvješće, tim rečeno, nije sročeno kako bi impliciralo buduću zabranu umjetne inteligencije. Autori umjesto toga naglašavaju da određeni postupci i obrambene mjere trebaju stupiti na snagu još u ranim razvojnim stadijima ove tehnologije. Zakonodavni sustavi u svim državama trebali bi odmah početi sa regulacijom korištenja umjetne inteligencije. Razvojni timovi koji rade na umjetrnoj inteligenciji bi im, u drugu ruku, pri tom nastojanju trebali pomoći.
Cjelovito izvješćeide u puno detaljniju obradu teme nego što to radi ovaj članak, no generalni zaključak je da je umjetna inteligencija vrlo moćni alat koji se, kao i sve nove tehnologije, mora dobro analizirati kako ga zlonamjernici ne bi iskoristili za nečasne i opasne radnje.