Možemo li danas vjerovati vlastitim očima i ušima? Svakako puno manje. Danas na internetu postoje razni besplatni alati, temeljeni na umjetnoj inteligenciji, pomoću kojih se u nekoliko minuta može stvoriti lažni video, audio ili fotografija. Riječ je o deepfake (dubinski lažnjak ili lažiranje) tehnologiji, kreiranju sintetičkog medija kako bi se zamijenili nečiji lice i glas obilježjima neke druge osobe. Može se kreirati transformiranjem izvornog sadržaja u kojemu se jedna osoba zamijeni drugom, ili stvaranjem novog, originalnog sadržaja u kojem je netko predstavljen kako radi ili govori nešto što uopće nije napravio ili rekao
Te se tehnologije danas najčešće za zabavu, no takvim se sadržajem također često i manipulira jer se deepkfake tehnologiju lako može zloupotrijebiti; njome se mogu kreirati opasni lažni događaji, izjave i fotografije, kao i osvetnička pornografija, što može uništiti nečiji ugled, pa i život, te tako utjecati na mišljenje drugih uz pomoć dezinformacija.
To sa sobom nosi opasne dugoročne posljedice i brojne etičke dileme.
Zastrašujući podatci
U svibnju 2023. Svjetski ekonomski forum iznio je podatak kako je samo između 2019. i 2020. godine broj deepfake sadržaja objavljenih na internetu porastao za 900 posto, a danas je taj rast i mnogo veći.
'Aktualna događanja pokazuju kako se ovaj zabrinjavajući trend nastavio, a neki znanstvenici predviđaju da bi čak 90 posto online sadržaja moglo biti sintetski generirano do 2026. To je podatak koji zbilja zastrašuje', govori nam Tomislav Levak, predavač na Odsjeku za kulturu, medije i menadžment Akademije za umjetnost i kulturu u Osijeku.
On se već nekoliko godina, u okviru rada na svojoj doktorskoj disertaciji o razlozima i načinima širenja dezinformacija i fake newsa, bavi i problemom deepfake tehnologije.
Tanka je granica između zabave i korištenja u loše svrhe
Levak navodi da je primjena deepfakea danas vrlo široka, u rasponu od zabave do kibernetičkog kriminala. S jedne strane, mnogi korisnici već nekoliko godina na svojim računalima ili mobitelima imaju instalirane alate ili aplikacije koje im omogućuju transformiranje postojećih ili kreiranje novih fotografija ili videosnimaka.
'Ne radi se o klasičnom deepfakeu, ali je riječ o montaži fotografija ili videosnimaka. Među najpoznatijima su FaceApp, koja je lansirana 2017. i ljudima omogućava da na svojim ili tuđim fotografijama osobama promijene izgled, dob ili spol. Ili Combo AI, pomoću koje korisnici mogu umetati svoja ili lica drugih osoba u, recimo, poznate filmske scene ili videospotove.
I, kao što često kažem svojim studentima i drugim osobama koje educiram, nema ništa loše u tome da netko malo zabavi sebe ili druge. Primjerice, kada nekoj poznatoj osobi umontira lice ili glas druge poznate osobe i onda ispadne kako ju je ona odlično imitirala', kaže Levak.
Levak o prednostima deepfake tehnologije
'Postoje i prednosti korištenja deepfake tehnologije. Primjerice, može se koristiti za stvaranje zabavnih i kreativnih sadržaja, poput filmskih efekata ili dubliranja poznatih osoba. Nadalje, može se primijeniti u obrazovanju, simulacijama i treninzima kako bi se unaprijedila edukacija i određene vještine.
K tome, može pomoći u medicinskim simulacijama, poput treniranja kirurga ili dijagnoze bolesti. Uz to, razvijanje deepfake tehnologije doprinosi napretku u području umjetne inteligencije i tzv. dubinskog učenja', kaže Levak.
No, to je i zlouporaba takvih alata o kojoj je važno više govoriti u javnosti.
Svjetski ekonomski forum iznosi podatak kako je samo u 2022. godini čak 66 posto stručnjaka za kibernetičku sigurnost doživjelo tzv. deepfake napade unutar svojih organizacija. Jedan od najčešćih načina korištenja deepfake cyber kriminala u praksi uključuje stvaranje lažnih zvučnih poruka, koje su navodno snimili i poslali izvršni direktor ili drugi visokopozicionirani rukovoditelja u nekoj tvrtki ili ustanovi, pomoću korištenja softvera za promjenu glasa kako bi ih oponašali.
'Ove manipulirane audio poruke u pravilu sadrže hitne zahtjeve primatelju za prijenos novca ili otkrivanje osjetljivih informacija. Jedna od globalno raširenih prijevara bio je prošlogodišnji slučaj kada je multimilijarder i poduzetnik Elon Musk u umjetno proizvedenoj videosnimci, diseminiranoj posredstvom društvenih mreža, pozvao potencijalne investitore da ulože novac u kriptovalute. S druge strane, zamijećeno je već mnogo slučajeva drukčijih vrsta zlouporabe. Postoji već niz poznatih glumica ili pjevačica čiji su se prilično uvjerljivi, ali lažni pornouratci pojavili na internetu, recimo Angelina Jolie, Gal Gadot ili Taylor Swift', navodi Levak.
'Problem nastaje kada se ovakvi ili slični načini počnu koristiti u loše svrhe, a toga nažalost ima sve više. Kao i općenito kada su posrijedi dezinformacije i lažne vijesti (fake news), a deepfake je jedna od njihovih naprednih načina ili podvrsta, nekoliko je najčešćih razloga za njegovo korištenje. Jedan je, dakle, zabava, a druga dva su u cilju ostvarivanja zarade ili u političke svrhe', navodi naš sugovornik.
Godina 2024. bit će najopasnija za deepfake
Kako se onda pripremiti na izbornu 2024. godinu, koja će biti jedna od najzanimljivih i potencijalno najopasniji kada je u pitanju deepfake? Održavaju se američki predsjednički izbori, koji su redovito iznimno važni na globalnoj razini, a Hrvatskoj slijedi nešto što se već naziva 'superizborna godina', kada će se u istoj godini održati izbori za hrvatske predstavnike u Europskom parlamentu, izbori za zastupnike u Hrvatskom saboru i izbori za predsjednika RH.
Levak ističe da dporaba deepfakea u Hrvatskoj pa tako i na političkoj razini, nije još primijećena u velikom opsegu, ali to ne znači da se stvari neće ubrzo promijeniti i reflektirati na politička događanja već u nastupajućoj godini. Na svjetskoj političkoj sceni deepfake je u optjecaju već više godina, a Levak je naveo dva poznata primjera.
'Deepfake se zasniva na tehnologiji nazvanoj generative adversarial networks (GANs), što se može prevesti kao 'generativne suparničke mreže'. Još 2017. su znanstvenici s američkog Sveučilišta u Washingtonu (Seattle) isprogramirali algoritam tako da je, koristeći govor iz jedne videosnimke nekadašnjeg predsjednika SAD-a Baracka Obame, napravio da se njegove usne pomiču kao da izgovara sadržajno potpuno drukčiji govor. Time su zorno i javno ukazali na opasnosti korištenja deepfakea.
Osim toga, kao još opasniju valja istaknuti pravu, namjerno realiziranu deepfake videosnimku ukrajinskog predsjednika Volodimira Zelenskog, koja se pojavila u rano proljeće 2022., nedugo nakon početka invazije Rusije na Ukrajinu, a u kojoj on traži od svojih vojnika da se predaju. Ta je snimka izazvala veliku paniku u Ukrajini, ali je, srećom, prijevara brzo razotkrivena. Ukratko, gotovo sam siguran da će deepfakea u nekoj mjeri biti korišten u kampanji uoči američkih predsjedničkih izbora, a za Hrvatsku ćemo vidjeti. Iskreno, ne vjerujem da će kod nas itko posezati baš za takvim metodama, osobito ne na izborima za Europski parlament i na predsjedničkim izborima', smatra Levak.
'Nedostaje edukacije, ova problematika ostala je siva zona'
Smatra da u Hrvatskoj kronično nedostaje sustavne edukacije o medijima i medijskoj pismenosti unutar školskoga sustava, ali i na neformalnoj razini; što se djece tiče, potrebno ih je, kaže Levak, educirati od malih nogu, obvezno u vrtićima i školama.
A kako bi vlade i tehnološke kompanije trebale reagirati na rastuću popularnost deepfake tehnologije? Kako se to odnosi na pitanje povjerenja i autentičnosti u digitalnom svijetu?
'Ovo je možda i najosjetljivije pitanje iz više razloga. Kao prvo, novi mediji, u prvom redu, internet nisu kvalitetno regulirani postojećim medijskim i zakonskim regulativama na globalnoj razini, pa tako i u Hrvatskoj. Neki pomaci napravljeni su novim Zakonom o digitalnim uslugama (Digital Service Act) koji je nedavno donesen na razini Europske unije, ili donošenjem novog Zakona o elektroničkim medijima krajem 2021. u Hrvatskoj. Međutim, ova je problematika i dalje ostala tzv. siva zona.
Još je prije nekoliko godina američki medijski stručnjak Drew Harwell upozorio kako nijedan zakon ne regulira deepfake, iako su neki pravni i tehnički stručnjaci preporučili prilagodbu aktualnih zakona koji pokrivaju klevetu, klevetu, prijevaru identiteta ili lažno predstavljanje. S druge strane, postavlja se pitanje kako regulirati upotrebu deepfake tehnologije kako bi se ograničila njezina zloupotreba, dok se istovremeno štiti sloboda izražavanja. Po mojem mišljenju, vlade i tehnološke tvrtke nešto će morati napraviti po tom pitanju, odnosno 'zagristi kiselu jabuku' i hitno reagirati jer situacija postaje sve gora i gora', ističe Levak.
Kaže i da je povjerenje u medije i digitalne sadržaje vrlo nisko, s obzirom na to da živimo u, ističe Levak, age of doubt (doba sumnje), a komunikaciju i dijalog s korisnicima dodatno otežava upravo deepfake tehnologija. 'Ona može nanijeti veliku štetu ugledu pojedinaca, organizacija ili čak država. Praksa pokazuje kako, nažalost, postoji mnogo ljudi kojima iz različitih razloga etičke dileme nisu uopće na pameti, stoga valja biti dodatno oprezan', upozorava.
'Glavni izazov je to što teško prepoznamo razliku'
Deepfake je postao opasniji jer se danas koristi strojno učenje (engl. machine learning) i umjetna inteligencija, sposobni da sami sintetiziraju medij na temelju slike i glasa. No povijest manipulacije fotografijama i medijima općenito seže još u 19. stoljeće', govori nam Tomislav Vuk, konzultant za kibernetičku sigurnost.
Glavni izazovi su to što deepfake počinje izgledati stvarniji i ljudi će teško prepoznati razliku između stvarno i umjetno generiranog medija. Vuk kao primjer navodi nedavni kibernetički napad u kojem je haker sintetizirao glas zaposlenika jedne IT tvrtke kako bi pristupio njenoj cloud infrastrukturi.
Pravosuđe bez konkretnih odgovora
'Povećava se, dakle, rizik od vishinga, tj. prijevara u kojima se preko telefona ili videopoziva nekoga oponaša. Zatim su tu manipulirane snimke koje bi mogle naštetiti dostojanstvu i sigurnosti ljudi, naročito djece, a kojima se ljude ucjenjuje i koje im mogu narušiti mentalno zdravlje ili nevine uplesti u probleme sa zakonom.
Glavni izazov je to što diljem svijeta pravosuđe još uvijek nema konkretnije odgovore na to, iako se ne bi smjelo manipulirati tuđim slikama bez dozvole ljudi na njima. Šteta koju deepfake može prouzročiti može biti daleko veća od same kazne za povredu privatnosti', upozorava Vuk te podsjeća da nisu svi čije slike završe na deepfake mediju žrtve, jer on se može koristiti i za marketing te za zabavu među prijateljima
Čak 96 posto deepfake videa na internetu čine pornografski sadržaji, napravljeni bez pristanka osoba prikazanih u njima. Ta tehnologija znatno utječe na političke izbore, što će pogotovo biti opasno.
Kako primijetiti deepfake video?
Pažnja njihovih istraživača stoga je posvećena i utjecaju deepfake videa na političku sferu. Opisana su i dva slučaja na kojima je tvrtka radila u Gabonu i Maleziji, gdje su navodni deepfake videozapisi gotovo doveli do vojnog udara, odnosno do slanja ministra u zatvor. U oba slučaja pokazalo se da je ipak riječ o autentičnim, neobrađenim snimkama. Vezano za ove slučajeve, u zaključcima studije navodi se da već i sama svijest o deepfake videima destabilizira političke procese jer potkopava doživljaj objektivnosti videozapisa u kojima se pojavljuju političari.
'Nije svaki deepfake jednako kvalitetan, ali za sada se mogu primijetiti anomalije na licima, u izrazima, micanju usta, obrva i transformaciji prilikom naglijih pokreta. Može se primijetiti da izgled kože nije prirodan, da su sjene na snimci u neskladu s okolinom. Deepfake još uvijek ima problema sa sinkronizacijom usta i glasa. A u videopozivima, okrene li osoba lice tako da joj vidimo profil, slika se neće ispravno generirati i primijetit će se tzv. glitch', pojašnjava Vuk.
Uznemirujući primjeri
Kaže da ne bi zabranjivao deepfake ako postoji pristanak osobe da taj sadržaj postoji, no što se tiče ucjena i pokušaja da se nekome naruše sigurnost, reputacija i zdravlje, smatra da bi trebale postojati ozbiljne zakonske posljedice i moralna odgovornost za to.
'Naprimjer, u SAD-u je 2021. bio slučaj žene koja je radila deepfake sadržaj fotografijama djevojčice koja je bila konkurentica njezinoj kćeri u školskom timu navijačica. Fotografije je distribuirala na društvenim mrežama i naštetila njezinom dostojanstvu, a na kraju je protiv nje podignuta optužnica koja je uključivala kibernetičko uznemiravanje djeteta (cyber harassment) i niz drugih kaznenih djela vezanih uz to', navodi Vuk.
Na većini društvenih mreža deepfake je već zabranjen, ali je i dalje aktualan i razvijaju se alati kojima će se moći prepoznati radi li se o manipuliranom ili generiranom mediju. A kakve su implikacije? 'Velike, jer ljudima u sjećanju ostaje prvi dojam, pa iako bi se dokazalo da se radilo o lažnoj snimci ili stotinjak lažnih snimki, dio ljudi će biti pod dojmom i kreirati mišljenje na temelju toga. Također, dio ljudi će odbaciti sve pod izlikom da se radi o deepfake manipulaciji', upozorava naš sugovornik.
Javnost nije dovoljno informirana
Kako se deepfake brzo razvija, mogao bi utjecati i na filmsku industriju, na političke kampanje i izbore te bi se zbog toga mogle dovoditi u pitanje i prave snimke koje bi nekoga kompromitirale. Vuk pritom naglašava da je javnost vrlo slabo informirana, pogotovo tijekom političkih kampanji i izbora, kad se takav sadržaj dijeli bez provjere ili pak s namjerom da se nekome našteti.
Stručnjak za kibernetičku sigurnost kaže da je deepfake najveći izazov za influencere i ostale ljude koji se vole izlagati na društvenim mrežama; svaka snimka, fotografija ili glas mogu biti iskorišteni za manipulaciju. 'Prvi izazov je uopće predočiti ljudima da ova tehnologija postoji i da može biti jako opasna. A oni koji bi radili te manipulacije također moraju biti svjesni toga da u digitalno doba postoje oštri zakoni protiv kibernetičkog kriminala i da se protežu preko više država', naglašava Vuk.
'Deepfake treba tretirati kao svaki drugi falsifikat'
Deepfake tehnologija nije nepoznata ni agenciji za komunikacijski menadžment i savjetovanje Val grupi, čija kreativna direktorica Iva Ušćumlić podsjeća da su se prva takva rješenja pojavila još prije koju godinu, a uz ovogodišnju eksploziju AI alata sve ih je više.
'Ta su rješenja sve naprednija i sve je teže prepoznati što je stvarno, a što falsifikat. Isto vrijedi za fotografije koje generira AI – za neke je teško bez pomoći dodatnih alata prepoznati da su umjetno generirane. Deepfake treba tretirati kao svaki drugi falsifikat. Nasreću, još nismo tako daleko otišli s razvojem AI-ja (iako mislim da je to pitanje vremena) da ga dostupni alati ne bi mogli detektirati i dokazati da je riječ o krivotvorini, ali čak i da nam uvijek na raspolaganju bude nekakav sustav provjere - jednom kada se falsificirana stvarnost pusti u javnost, dio te laži će ostati.
Možemo mi dokazivati i demantirati, pozivati se na činjenice, kao i kod drugih tendenciozno puštenih priča iz manje kompleksnog svijeta i vremena, ali dio laži i manipulacija ostaje u javnosti. Naš posao se ne mijenja previše – i dalje se brinemo za to da većina ljudi dobije potpunu i točnu informaciju, samo sada imamo nove kanale kojima se plasiraju neistinite i poluistinite informacije', ističe naša sugovornica.
'Prva linija obrane je interna informatička sigurnost'
Ključno pitanje je kako se obraniti.
'Obrana od takvih stvari slična je pokušaju da vratite perje u jastuk koji je netko rasporio. Možete pokupiti dio, zaustaviti djelić, ali sasvim sigurno ćete imati punu sobu perja na mjestima na kojima to niste očekivali. Prva linija obrane je interna informatička sigurnost, što se često zanemaruje.
Bez namjere da zvučim zloguko ili mračno, ali današnji ratovi i napadi vode se puškama i topovima, ali i sofisticiranije – informatičkim napadima na sustave ključne infrastrukture. Informatička sigurnost i s njom povezana sigurnosna pismenost doista su ključ', ističe Ušćumlić.
'Treba mijenjati i komunikaciju'
Kvalitetno i pravodobno komuniciranje navodi kao drugu liniju obrane, pogotovo u vremenu u kojem je, kaže naša sugovornica, istina relevantna, a komunikacija nikad važnija. No ne i bilo kakva, kaže.
'Potrebna je komunikacija koja razumije kanale kojima se komunicira, medijske formate u kojima se može komunicirati i važnost svega toga u integriranoj komunikacijskoj strategiji. Svijet se promijenio, pa je potrebno mijenjati i komunikaciju. Ne možemo zdvajati zato što su razvijeni potencijalno opasni alati. Svaka inovacija na svijetu donijela je neke sjajne stvari i otvorila put zloupotrebama, stoga ovo nije ništa posebno drugačije.
Prilično sam sigurna i da je deepfake tek prvi korak potencijalnih zloupotreba i da će, kako se tehnologija eksponencijalno razvija, uslijediti (gotovo istodobno) i sjajna, revolucionarna rješenja koja mijenjaju živote, ali i problematična, neetična, kriminalna rješenja usmjerena na uništavanje reputacije ili poslovanja. Treba biti svjestan toga i držati korak s razvojem tehnologije. To u agenciji i činimo. Sve ostalo je doista pokušaj vraćanja perja u rasporeni jastuk – možemo pokušavati, ali rezultat će izostati', zaključuje Ušćumlić.
Svijest roditelja i sharenting
U srpnju ove godine Deutsche Telekom je, u sklopu svoje kampanje ShareWithCare, objavio deepfake video koji prikazuje djevojčicu koja se pretvara u odraslu ženu pomoću umjetne inteligencije. Cilj kampanje je upozoriti i pozvati roditelje da ne dijele fotografije i videosnimke svoje djece na društvenim mrežama – što je opasna praksa poznatija pod nazivom sharenting.
Video prikazuje kako se pomoću umjetne inteligencije može lako manipulirati fotografijama objavljenim na internetu. Protagonistica je devetogodišnja djevojčica Ella te predstavlja cijelu generaciju djece. Kampanja naglašava da bezazlene objave ponosnih roditelja na internetu mogu dovesti do krađe i zlouporabe identiteta, do dječje pornografije i do tzv. deepfake prevara – manipuliranih fotografija, videa i audiozapisa.
Istraživanja pokazuju da prosječno dijete do svoje pete godine ima 1500 fotografija na internetu, a koje su bez njihova pristanka postavili roditelji. Procjenjuje se da bi do 2030. većina slučajeva prevara vezanih uz krađu identiteta djece mogla biti uzrokovana sharentingom. Neopreznim dijeljenjem slika na internetu roditelji i skrbnici riskiraju nenamjerno izlaganje djece profiliranju posrednika podataka, hakiranju, prepoznavanju lica, pedofiliji te drugim prijetnjama privatnosti i sigurnosti.