I dalje su to prijevare slične onima s kojima se već godinama susrećemo. Ali, generativna umjetna inteligencija ih čini uvjerljivijima i lakšima za masovnu proizvodnju te plasman
Umjetna inteligencija pomoći će oko svega i svačega, u rasponu od uredskih poslova do izrade umjetničkih djela. Ali, također može poslužiti i za prijevare.
Evo što trebate znati o tome.
I dalje su to prijevare slične onima s kojima se već godinama susrećemo. Ali, generativna umjetna inteligencija ih čini uvjerljivijima i lakšima za masovnu proizvodnju te plasman.
Ovo nije potpuni popis, tek nekoliko najčešće korištenih trikova na koje možete naići. Očekujte kako će ih biti sve više i više.
Kloniranje glasa obitelji i prijatelja
Sintetički glasovi prisutni su desetljećima, ali tek je u posljednjih godinu ili dvije napredak u tehnologiji omogućio generiranje novog glasa iz samo nekoliko sekundi zvuka.
To znači kako je svatko čiji je glas ikada bio javno emitiran - na primjer, u izvješću, YouTube videu ili na društvenim medijima - može postati žrtvom neželjenog kloniranja.
Prevaranti mogu i jesu koristili ovu tehnologiju za izradu uvjerljivih lažnih inačica glasovnih poruka bliskih osoba ili prijatelja.
Mogu ih natjerati da kažu bilo što, ali najčešće će tražiti pomoć - novac u hitnim situacijama i tome slično. Žrtvom ove vrste prijevare bio je i američki predsjednik Joe Biden, stoga nemojte misliti kako se vama to ne može dogoditi.
Kako se možete boriti protiv kloniranja glasa?
Nemojte se truditi uočiti lažni glas. Svakim su danom sve bolji i postoji mnogo načina za prikrivanje problema s kvalitetom. Mogu zavarati i stručnjake.
Sve što dolazi s nepoznatog broja, adrese e-pošte ili računa automatski bi trebali smatrati sumnjivim. Ako netko tvrdi kako vam je prijatelj ili voljena osoba, pokušajte kontaktirati tu osobu na uobičajeni način i provjeriti o čemu se radi.
Prevaranti obično neće biti naročito uporni ako ih ignorirate, dok član obitelji ili prijatelj vjerojatno hoće. Stoga, ako vam se nešto čini sumnjivim, nemojte žuriti s odgovorom.
Personalizirani phishing i spam putem e-pošte i poruka
Svi s vremena na vrijeme dobijemo neželjenu poštu, ali umjetna inteligencija za generiranje teksta omogućuje slanje masovne e-pošte prilagođene pojedincu koja može zvučati prilično uvjerljivo, pa i koristiti vaše osobne podatke koji su negdje nekome ukradeni.
Kako se možete boriti protiv neželjene e-pošte?
Kao i kod tradicionalnog spama, oprez je najbolje oružje. Nemojte se truditi prepoznati je li umjetna inteligencija pisala tekst ili nije.
Umjesto toga, obratite pozornost na druge znakove upozorenja. Prijevare ove vrste će vas nastojati navesti na otvaranje privitaka ili poveznica. Ako ne znate pošiljatelja i/ili ne očekujete takvu poruku, nemojte ništa klikati, niti otvarati. Već je i malo sumnje dovoljno da ne riskirate.
Prijevara s lažnim identitetom i verifikacijom
Ako slijedite dobre sigurnosne prakse na mreži, veliki dio rizika je umanjen jer redovno mijenjate svoje lozinke, uključili ste višestupanjsku potvrdu i tome slično.
Ipak, generativna umjetna inteligencija može predstavljati ozbiljnu prijetnju. Uz toliko podataka o nekome dostupnih na webu, sve je lakše stvoriti umjetnom inteligencijom stvoriti virtualnu osobu koja zvuči kao stvarna i ima pristup velikom broju činjenica koje se koriste za provjeru identiteta.
Opasnost nije toliko u tome koliko bi ovo lažno predstavljanje bilo realno, već u tome što je prevarantima lako izvoditi ovu vrstu napada široko i opetovano.
Ranije je to bilo znatno skuplje i dugotrajnije, pa je bilo rezervirano uglavnom za bogataše. Danas metom može biti bilo tko, pa tako i vi.
Kako se možete boriti protiv prijevare s lažnim identitetom?
Višestupanjska provjera autentičnosti je najvažniji pojedinačni korak koji bilo tko poduzeti. Bilo kakva ozbiljna aktivnost računa ide ravno na vaš telefon, a sumnjive prijave ili pokušaji promjene lozinki pojavit će se u e-pošti.
Nemojte zanemariti ova upozorenja ili ih označiti kao neželjenu poštu, čak i ako ih stiže puno. Pogotovo ako ih stiže puno.
Deepfake i ucjene generirane umjetnom inteligencijom
Možda najstrašniji oblik prijevare s umjetnom inteligencijom je mogućnost ucjene pomoću lažnih slika vas ili voljene osobe.
Osvetnička pornografija zbog mogućnosti koje pruža umjetna inteligencija poprima sasvim nove razmjere, pa i uklanja potrebu za stvarnim intimnim slikama.
Bilo čije lice moguće je dodati nečijem razgolićenom tijelu. Čak i ako rezultati nisu uvijek uvjerljivi, to može biti dovoljno kako bi nekog zastrašilo i natjeralo na plaćanje otkupnije. A jednom kad platite, nećete se tako lako riješiti ucjenjivača.
Kako se boriti protiv deepfakeova koje je generirala umjetna inteligencija?
Postoji nekoliko stvari koje idu u prilog potencijalnim žrtvama. Ovi slikovni modeli mogu proizvesti realistična tijela na neki način, ali poput druge generativne umjetne inteligencije, znaju samo ono na čemu su trenirani.
Tako lažne slike, recimo, neće imati pojedinosti specifične za vaše tijelo, ili će biti pogrešne na drugi način. Također, sve je više načina kako žrtve mogu ishoditi uklanjanje slika ili zabraniti prevarantima pristup stranicama na kojima objavljuju.
Na kraju, ako ste žrtva takvog napada, obratite se policiji, piše Tech Crunch.