KOME VJEROVATI?

Je li zabrinutost oko učinaka AI-ja u dezinformacijama opravdana ili prenapuhana?

31.10.2023 u 11:37

Bionic
Reading

Iako su se neki bojali da će rat biti prvi u povijesti preplavljen strojno izrađenim lažnim slikama, to se nije dogodilo. Utjecaj tehnologije na sukob daleko je suptilniji.

U tjednima otkako je Hamas pokrenuo svoj iznenadni napad na Izrael 7. listopada, sukob koji je uslijedio izazvao je val dezinformacija bez presedana - kao kakav 'algoritamski vođeni rat u magli' koji je uznemirio velike organizacije, dok su se društveni mediji našli pred zidom.

Ipak, usred svih varljivih slika i videa koji se kreću društvenim medijima, sadržaj koji generiraju alati umjetne inteligencije nije označavao prijetnju niti bio krajnje zlonamjeran, kako su mnogi možda očekivali. Iako su se neki pitali hoće li rat Izraela i Hamasa biti prvi sukob kojim će dominirati lažne generativne slike umjetne inteligencije, tehnologija je imala složeniji i suptilniji utjecaj.

'Definitivno postoje fotografije umjetne inteligencije koje kruže, ali ne u tolikoj mjeri da mislim da AI igra središnju ulogu u širenju informacija', kaže Layla Mashkoor, suradnica Laboratoriju za digitalna forenzička istraživanja Atlantic Councila, koji proučava online dezinformacije, piše Wired.

Prvenstveno, kaže Mashkoor, dezinformacije koje generira umjetna inteligencija koriste aktivisti kako bi pridobili potporu – ili ostavili dojam šire potpore – za određenu stranu. Primjeri uključuju oglasni pano generiran umjetnom inteligencijom u Tel Avivu koji zagovara Izraelske obrambene snage, izraelski račun koji dijeli lažne slike ljudi koji navijaju za IDF, izraelski influencer koji koristi umjetnu inteligenciju za generiranje osuda Hamasa i fotografije umjetne inteligencije koje prikazuju žrtve izraelskog bombardiranja Gaze.

'Što se tiče opće upotrebe koju sam vidjela na internetu, to je uglavnom bilo za prikupljanje podrške, što trenutno nije među najzlonamjernijim načinima korištenja AI-ja', kaže. Ključni čimbenik ovdje je velika količina dezinformacija koje kruže, što otežava AI fotografija da oblikuju razgovor. 'Informacijski prostor već je preplavljen stvarnim i autentičnim fotografijama i snimkama, i to samo po sebi preplavljuje platforme društvenih medija', kaže Mashkoor.

Izraelski tenkovi na granici s Gazom
  • Izraelski tenkovi na granici s Gazom
  • Izraelski tenkovi na granici s Gazom
  • Izraelski tenkovi na granici s Gazom
  • Izraelski tenkovi na granici s Gazom
  • Izraelski tenkovi na granici s Gazom
    +2
Izraelski tenkovi na granici s Gazom Izvor: EPA / Autor: Hannibal Hanschke

Takvo je stajalište navedeno i u nedavnom radu časopisa Harvard Kennedy School Disinformation Review, gdje autori pišu o ulozi koju bi generativna umjetna inteligencija mogla igrati u širenju lažnih informacija diljem svijeta. U njemu autori pišu da je zabrinutost oko učinaka tehnologije 'prenapuhana'.

Iako, da, generativni AI teoretski dopušta ljudima širenje dezinformacija futurističkom brzinom, oni koji traže te dezinformacije - često oni koji imaju 'nisko povjerenje u institucije ili su jaki pristaše' - već imaju obilje poznatih besmislica kojima se bave; od web stranica s teorijama zavjere do 4chan foruma.

'S obzirom na kreativnost koju su ljudi kroz povijest iskazivali u izmišljanju (lažnih) priča i slobodu koju ljudi već imaju u stvaranju i širenju dezinformacija, malo je vjerojatno da velik dio populacije traži dezinformacije koje ne mogu pronaći na internetu ili izvan mreže', zaključuju autori. Štoviše, dezinformacije dobivaju na snazi samo kada ih ljudi vide, a s obzirom na to da je vrijeme koje ljudi imaju za viralni sadržaj ograničeno, utjecaj je zanemariv.

Izraelska postrojba
  • Izraelska postrojba
  • Izraelska postrojba
  • Izraelska postrojba
  • Izraelska postrojba
  • Izraelska postrojba
    +4
Izraelska postrojba Izvor: Profimedia / Autor: ABBAS MOMANI / AFP / Profimedia

Što se tiče slika koje bi mogle pronaći svoj put u mainstream feedove, autori napominju da iako generativna umjetna inteligencija teoretski može prikazati vrlo personaliziran, vrlo realističan sadržaj, isto to može učiniti i Photoshop ili softver za uređivanje videa. Promjena datuma na zrnatom videu mobitela mogla bi se pokazati jednako učinkovitim. Novinari i oni koji provjeravaju činjenice manje se bore s deepfakeovima nego sa slikama izvan konteksta ili onima koje su grubo izmanipulirane u nešto što nisu, poput snimaka video igrica predstavljenih kao napad Hamasa.

U tom smislu, pretjerana usredotočenost na novu tehnologiju često je loša. 'Biti realan nije uvijek ono što ljudi traže ili što je potrebno da bi bilo viralno na internetu', dodaje Sacha Altay, koautor na radu i postdoktorski znanstveni suradnik čije trenutno područje uključuje dezinformacije, povjerenje i društvene medije na Sveučilištu iz Zürichovog laboratorija za digitalnu demokraciju.

To se također odnosi na ponudu, objašnjava Mashkoor; izum nije isto što i implementacija. 'Moguće je manipulirati razgovorima ili prostorom internetskih informacija na različite načine', kaže ona.

Napad na bolnicu u Gazi
  • Napad na bolnicu u Gazi
  • Napad na bolnicu u Gazi
  • Napad na bolnicu u Gazi
  • Napad na bolnicu u Gazi
  • Napad na bolnicu u Gazi
    +6
Napad na bolnicu u Gazi Izvor: Profimedia / Autor: AA/ABACA / Abaca Press / Profimedia

Proučavanje kako se generativna umjetna inteligencija stvarno uklopila u postojeći ekosustav dezinformacija je mnogo važnije. To je mnogo prisutnije nego na početku ruske invazije na Ukrajinu, tvrdi Hany Farid, profesor na UC Berkeley School of Information. Farid navodi mnoge primjere, uključujući ljude koji ukazuju na razne digitalne dokaze o tome tko stoji iza raketnog napada na arapsku bolnicu Al-Ahli u Gazi, kao i fotografije djece zatrpane ispod ruševina, neki stvarni, a neki lažni.

Jedan od najistaknutijih primjera bio je kada je izraelski premijer Benjamin Netanyahu objavio fotografije spaljene djece na X-u. Nakon što su objavljene, netko je te fotografije podvrgnuo alatu za detekciju 'AI ili ne AI'. Korisnici su tvrdili da je AI utvrdio da su fotografije lažne. Farid kaže da je njegov tim analizirao slike i zaključio da AI nije korišten, ali sjeme sumnje je već bilo posijano. Situacija je postala još složenija kada je netko upotrijebio AI za zamjenu djeteta na jednoj od fotografija sa psićem.

Drugim riječima, ova distribucija slijedi povijesni obrazac: dezinformacije se dijele na društvenim medijima, a zatim se pojačavaju putem algoritama i ljudi. 'U širem smislu, s obzirom na našu sposobnost suočavanja s brzim i moćnim svijetom, mislim da je ovaj sukob teži od onoga što smo vidjeli u prošlosti', kaže Farid. 'Mislim da generativni AI igra svoju ulogu, ali nije jedini krivac, stvar je puno složenija.'