TEHNO SAVJETI

Kako izbjeći dezinformacije generirane umjetnom inteligencijom? Vrag je u detaljima

08.09.2024 u 17:57

Bionic
Reading

Napredak u generativnoj umjetnoj inteligenciji znači da su lažne slike, videozapisi, audio i botovi posvuda oko nas. Međutim studije su otkrile najbolje načine da se utvrdi je li nešto stvarno

Kako tehnologija srlja naprijed, sve je teže prepoznati slike, video, audio i tekstove generirane umjetnom inteligencijom, što velik broj ljudi ostavlja otvorene za manipulaciju dezinformacijama. Unatoč prisutnoj opasnosti, poznavanjem trenutnog stanja tehnologija umjetne inteligencije možete se zaštititi od toga da vas netko prevari.

Potkopava li digitalna tehnologija demokraciju?

Svjetski čelnici su zabrinuti. Prema izvješću Svjetskog ekonomskog foruma, dezinformacije mogu 'radikalno poremetiti izborne procese u nekoliko gospodarstava u sljedeće dvije godine', dok je lakši pristup alatima umjetne inteligencije 'već omogućio eksploziju krivotvorenih informacija, od sofisticiranog kloniranja glasa do krivotvorenih web stranica'.

Dezinformacije se odnose na lažne ili netočne informacije te su usmjerene na obmanu ili zabludu.

'Problem s dezinformacijama koje pokreće umjetna inteligencija su opseg, brzina i lakoća kojom se kampanje mogu pokrenuti', kaže Hany Farid sa Sveučilišta Kalifornija, Berkeley. 'Ovi napadi više neće uzimati aktere koje sponzorira država ili dobro financirane organizacije - pojedinac s pristupom skromnoj računalnoj snazi ​​može stvoriti ogromne količine lažnog sadržaja.'

Kaže da generativna umjetna inteligencija 'zagađuje cijeli informacijski ekosustav, bacajući sumnju na sve što čitamo, vidimo i čujemo'. Njegovo istraživanje sugerira da se u mnogim slučajevima slike i zvuk generirani umjetnom inteligencijom 'gotovo ne razlikuju od stvarnosti'.

Međutim istraživanje Farida i drugih otkriva da postoje strategije koje možete slijediti kako biste smanjili rizik od nasjedanja na dezinformacije na društvenim medijima ili one koje je stvorila umjetna inteligencija, piše New Scientist.

Kako uočiti lažne AI slike?

Sjećate li se da ste vidjeli fotografiju pape Franje u pufer jakni? Takve lažne AI slike postale su sve češće jer su novi alati temeljeni na modelima difuzije omogućili bilo kome da počne izbacivati ​​slike iz jednostavnih tekstualnih upita. Studija Nicholasa Dufoura iz Googlea i njegovih kolega otkrila je brz porast udjela slika generiranih umjetnom inteligencijom u dezinformacijama nastalim od početka 2023. nadalje.

'Danas medijska pismenost zahtijeva AI pismenost', kaže Negar Kamali sa Sveučilišta Northwestern u Illinoisu. U studiji iz 2024. godine ona i njezini kolege identificirali su pet kategorija pogrešaka u slikama generiranim umjetnom inteligencijom i pružili smjernice o tome kako ih ljudi mogu sami uočiti. Dobra vijest je da njihovo istraživanje pokazuje da su ljudi trenutno oko 70 posto točni u otkrivanju lažnih AI slika ljudi. Ako ste zainteresirani, možete isprobati njihov slikovni test za procjenu vlastitih vještina otkrivanja lažnog sadržaja.

5 uobičajenih pogrešaka u slikama generiranim umjetnom inteligencijom

Prva greška su sociokulturne neuvjerljivosti. Prikazuje li scena rijetko, neobično ili iznenađujuće ponašanje za određene kulture ili povijesne ličnosti? Druga su anatomske nevjerojatnosti. Pažljivo pogledajte: jesu li dijelovi tijela poput ruku neobičnog oblika ili veličine? Izgledaju li oči ili usta čudno? Jesu li se neki dijelovi tijela spojili? Treća su stilski artefakti: izgleda li slika neprirodno, gotovo previše savršeno ili stilski? Izgleda li pozadina čudno ili kao da joj nešto nedostaje? Je li osvjetljenje promjenjivo? Četvrta su funkcionalne neuvjerljivosti. Izgledaju li neki predmeti bizarno ili kao da možda nisu stvarni ili ne rade? Naprimjer, jesu li gumbi ili kopče remena na čudnim mjestima? Peta su kršenje zakona fizike. Pokazuju li se sjene u različitim smjerovima? Jesu li zrcalni odrazi u skladu sa svijetom prikazanim na slici?

Kako prepoznati deepfake video?

Tehnologija umjetne inteligencije, poznata kao generativne suparničke mreže, omogućila je od 2014. godine pojedincima upućenim u stvaranje videofakeova digitalno manipuliranje postojećim videozapisima ljudi radi zamjene lica, stvaranja njihovih novih izraza i umetanja zvuka usklađenog s micanjem usana. To je omogućilo rastućem nizu prevaranata, hakera koje podupiru države i ostalih da proizvedu videodeepfake u kojem se slavne osobe kao što je Taylor Swift, ali i svi ljudi mogu naći u deepfake pornografiji bez pristanka, prijevarama ili političkim dezinformacijama.

Izvor: Društvene mreže / Autor: New Scientist

Tehnike za uočavanje lažnih AI slika mogu se primijeniti i na sumnjive videozapise. Osim toga, istraživači s Massachusetts Institute of Technology i Sveučilišta Northwestern u Illinoisu napisali su savjete o tome kako uočiti takve deepfakeove, ali su priznali da ne postoji pouzdana metoda koja uvijek djeluje.

6 savjeta za uočavanje videa generiranog umjetnom inteligencijom

Prvo što možete raditi je pratiti pokrete usta i usana. Postoje li trenuci u kojima video i audio nisu potpuno sinkronizirani? Drugo su anatomske greške. Izgleda li lice ili tijelo čudno ili se neprirodno pomiče? Treći savjet je praćenje lica: potražite nedosljednosti u glatkoći lica ili bora oko čela i obraza te madeže na licu. Četvrti je rasvjeta. Je li nedosljedna? Ponašaju li se sjene onako kako biste očekivali? Obratite posebnu pozornost na nečije oči, obrve i naočale. Još jedna stvar koja zna biti čudna su kosa i dlake na licu. Izgledaju li čudno ili se miču na čudne načine? Konačno, tu je treptanje: previše ili premalo treptanja može biti znak deepfakea.

Novija kategorija videofakeova temeljena je na difuzijskim modelima, istoj AI tehnologiji koja stoji iza mnogih generatora slika, te može stvoriti potpuno AI generirane videoisječke na temelju tekstualnih upita. Tvrtke već testiraju i objavljuju komercijalne verzije AI video generatora koji bi to svima mogli olakšati, bez potrebe za posebnim tehničkim znanjem. Do sada dobiveni videozapisi obično prikazuju iskrivljena lica ili bizarne pokrete tijela.

'Ove videozapise generirane umjetnom inteligencijom ljudi vjerojatno lakše detektiraju od slika jer ima puno kretanja i puno više mogućnosti za artefakte te nemogućnosti koje generira umjetna inteligencija', kaže Kamali.

Kako prepoznati AI robote

Računi društvenih medija koje kontroliraju računalni botovi postali su uobičajenom pojavom na društvenim mrežama i platformama za razmjenu poruka. Sve veći broj ovih botova također iskorištava prednosti generativnih AI tehnologija kao što su veliki jezični modeli. Oni izbacivanje sadržaja pisanog AI-jem čine lakim i jeftinim, uz pomoć tisuća botova koji ispisuju gramatički ispravan i uvjerljivo prilagođen tekst.

Postalo je puno lakše 'prilagoditi ove velike jezične modele za određenu publiku s određenim porukama', kaže Paul Brenner sa Sveučilišta Notre Dame u Indiani.

Brenner i njegovi kolege otkrili su u svom istraživanju da volonteri mogu razlikovati botove koje pokreće AI od ljudi u samo 42 posto slučajeva – unatoč tome što je sudionicima rečeno da potencijalno komuniciraju s botovima. Mislite da ste bolji od njih? Vještinu otkrivanja botova isprobajte ovdje.

Neke strategije mogu pomoći u prepoznavanju manje sofisticiranih AI robota, kaže Brenner.

5 načina da utvrdite je li račun na društvenim mrežama AI bot

Prvi su emojiji i hashtagovi: njihova pretjerana upotreba može biti znak. Drugi su neuobičajeni izrazi, odabiri riječi ili analogije. Neuobičajeni izrazi mogu ukazivati ​​na AI robota. Treći su ponavljanje i struktura: botovi mogu koristiti ponovljene riječi koje slijede slične ili krute oblike te određene žargonske izraze. Ono što možete napraviti je postavljati puno pitanja. Ona mogu otkriti nedostatak znanja bota o temi – osobito kada su u pitanju lokalna mjesta i situacije. Posljednji način je, nažalost, da pretpostavimo najgore: ako račun na društvenim mrežama nije osobni kontakt i njegov identitet nije jasno potvrđen ili potvrđen, to bi mogao biti AI bot.

Kako otkriti kloniranje zvuka i deepfake govora

Alati za kloniranje glasa olakšali su generiranje zvukova te mogu oponašati praktički bilo koga. To je dovelo do porasta audio deepfake prijevara koje kloniraju glasove članova obitelji, direktora tvrtki i političkih vođa poput američkog predsjednika Joea Bidena. Njih može biti mnogo teže identificirati u usporedbi s videozapisima ili slikama koje je generirala umjetna inteligencija.

'Kloniranje glasa posebno je izazovno za razlikovanje stvarnog od lažnog jer nema vizualnih komponenti koje bi podržale naš mozak u donošenju odluke o tome', kaže Rachel Tobac, suosnivačica SocialProof Securityja, organizacije white hat hakera.

Kako će ovaj trenutak za umjetnu inteligenciju zauvijek promijeniti društvo (a kako neće)

Nema sumnje da su najnoviji pomaci u umjetnoj inteligenciji OpenAI-ja, Googlea, Baidua i drugih impresivniji od onoga što je bilo prije, no jesmo li u još jednom mjehuru AI pompe?

Otkrivanje takvih AI zvučnih deepfakeova može biti posebno teško kada se koriste u video i telefonskim pozivima, no postoje neki zdravorazumski koraci koje možete slijediti kako biste razlikovali autentične ljude od glasova generiranih umjetnom inteligencijom.

Ako je u pitanju audioisječak izabranog dužnosnika ili slavne osobe, provjerite je li ono što govore u skladu s onim što je već javno objavljeno ili podijeljeno o njihovim stavovima i ponašanju. Potražite nedosljednosti i usporedite audioisječak s prethodno provjerenim video ili audioisječcima koji sadrže glas te osobe. Ima li ikakvih nedosljednosti u zvuku njihova glasa ili načinu govora? Četvrta metoda je otkrivanje neugodne tišine: ako slušate telefonski poziv ili govornu poštu, a sugovornik uzima duge pauze tijekom govora, možda se koristi tehnologija kloniranja glasa koju pokreće AI.

Tehnologija će samo biti bolja

Kako sada stoji, ne postoje dosljedna pravila koja uvijek mogu razlikovati sadržaj generiran umjetnom inteligencijom od onog koji stvaraju ljudi. Modeli umjetne inteligencije sposobni za generiranje teksta, slika, videa i zvuka gotovo će se sigurno nastaviti poboljšavati i često mogu brzo proizvesti sadržaj bez ikakvih očitih artefakata ili pogrešaka. 'Budite umjereno paranoični i shvatite da umjetna inteligencija brzo manipulira i izmišlja slike, video i audiozapise – govorimo o 30 sekundi ili manje', kaže Tobac. 'Ovo olakšava zlonamjernim pojedincima koji žele prevariti ljude da brzo preokrenu dezinformacije koje je generirala umjetna inteligencija, dopirući do društvenih medija u roku od nekoliko minuta nakon udarne vijesti.'

Iako je važno izvježbati oko za lažne informacije koje generira umjetna inteligencija i naučiti postavljati više pitanja o onome što čitate, vidite i čujete, u konačnici to neće biti dovoljno za zaustavljanje štete, a odgovornost za otkrivanje krivotvorina ne može u potpunosti pasti na pojedince.

Farid je među istraživačima koji kažu da vladina regulatorna tijela moraju pozvati na odgovornost najveće tehnološke tvrtke – kao i novoosnovane tvrtke s potporom istaknutih investitora iz Silicijske doline – koje su razvile mnoge alate što preplavljuju internet lažnim sadržajem generiranim umjetnom inteligencijom. 'Tehnologija nije neutralna', kaže Farid. 'Ovo što nam je tehnološki sektor prodao, to da ne moraju preuzimati odgovornost kao svaka druga industrija, jednostavno - odbijam.'