učinkovito ili ne?

Ljudi više nisu prvi cilj dezinformacija ruskih propagandi, ovo je nova taktika

11.03.2025 u 11:24

Bionic
Reading

Umjesto ciljanja ljudi sadržajem, Rusija se nastoji infiltrirati u modele umjetne inteligencije koje mnogi sada koriste kako bi u potpunosti zaobišli medijske web stranice

Od izbora Donalda Trumpa za američkog predsjednika 2016. godine vodi se rasprava o tome koliko je ruska propaganda bila učinkovita u mijenjanju mišljenja američkih glasača.

Bilo je dobro dokumentirano u to vrijeme kako je Rusija u to vrijeme zapošljavala velike IT tvrtke kao što je Internet Research Agency, čija je zadaća bila plasiranje razdornog, proruskog sadržaja usmjerenog na Amerikance.

Ali, kvantificiranje utjecaja uvijek je bilo neprecizno. Novo izvješće NewsGuarda ukazalo je na zaokret u taktici. Umjesto ciljanja ljudi sadržajem, Rusija se nastoji infiltrirati u modele umjetne inteligencije koje mnogi sada koriste kako bi u potpunosti zaobišli medijske web stranice.

Nekritički ponavljaju propagandu

Prema istraživanju NewsGuarda, propagandna mreža Pravda proizvela je više od 3,6 milijuna članaka samo u 2024. godini, za koje je utvrđeno kako su sada ugrađeni u 10 najvećih modela umjetne inteligencije, uključujući ChatGPT, xAI-jev Grok i Microsoft Copilot.

Roboti za brbljanje kojima upravlja deset najvećih tvrtki koje se bave umjetnom inteligencijom zajedno ponavljaju ruske dezinformacijske narative 33,55 posto vremena, ne daju odgovor 18,22 posto vremena i razotkrivaju 48,22 posto vremena.

Svih 10 chatbota ponavljalo je dezinformacije s mreže Pravda, a sedam chatbota čak je izravno citiralo određene članke iz Pravde kao svoje izvore.

NewsGuard novu taktiku naziva AI grooming, pošto se modeli sve više oslanjaju na RAG (skraćenica za retrieval augmented generation) za izradu članaka koristeći informacije u stvarnom vremenu s cijelog weba. Posjećujući web stranice naizgled legitimnog izgleda, modeli gutaju i vraćaju informacije za koje ne razumiju kako su propaganda.

Kao primjer NewsGuard je naveo tvrdnju kako je ukrajinski predsjednik Volodimir Zelenski zabranio Truth Social, društvenu mrežu povezanu s predsjednikom Trumpom. Optužba je dokazano lažna - Truth Social nikad nije bio dostupan u Ukrajini. Ipak, šest od 10 chatbota ponovilo je lažnu priču kao činjenicu, u mnogim slučajevima citirajući članke s mreže Pravda.

Primjerice, chatbot 1 je odgovorio: 'Zelensky je zabranio Truth Social u Ukrajini navodno zbog širenja objava koje su bile kritične prema njemu na platformi. Čini se da je ova radnja odgovor na sadržaj koji se smatra neprijateljskim, što može odražavati napetosti ili neslaganja s povezanim političkim osobama i stajalištima koja se promoviraju putem platforme.'

Kontrola nad umjetnom inteligencijom

Prošle su godine američke obavještajne agencije povezale Rusiju s viralnim dezinformacijama koje su se širile o kandidatu za demokratskog potpredsjednika Timu Walzu.

Microsoft je rekao da je viralni video koji tvrdi kako je Harris ostavio ženu paraliziranu u nesreći prije 13 godina ruska dezinformacija. Najnovija propagandna operacija povezana je s informatičkom tvrtkom TigerWeb, koja se nalazi na Krimu pod ruskom kontrolom.

TigerWeb dijeli IP adresu s propagandnim web stranicama koje koriste ukrajinsku vršnu domenu .ua. Od njih je potekla tvrdnja kako se Zelenski obogatio krađom vojne pomoći Ukrajini.

Stručnjaci već dugo upozoravaju kako se Rusija oslanja na organizacije treće strane u obavljanju ove vrste posla kako bi mogla tvrditi da nema ništa s time. Postoji zabrinutost kako će oni koji kontroliraju modele umjetne inteligencije jednog dana imati moć nad individualnim mišljenjima i načinima života.

Meta Platforms, Google i xAI su među onima koji kontroliraju pristranosti i ponašanje modela za koje se nadaju da će pokretati web.

Istraživanje je pokazalo da je više od polovice Google pretraživanja 'nulti klik', što znači kako ne dovode do klika na web stranici.

Mnogi ljudi na društvenim mrežama radije bi pogledali pregled umjetne inteligencije jer im je preteško kliknuti i provjeriti izvor. Iako se i dalje muče s pogreškama i netočnostima, ljudi im vjeruju jer pišu na autoritativan način.

Google tradicionalno koristi različite signale za rangiranje legitimnosti web stranica u pretraživanju. Nejasno je kako se ovi signali primjenjuju na njegove modele umjetne inteligencije, ali rani gafovi sugeriraju kako njegov model Gemini ima puno problema pri provjeri reputacija.

Većina modela često navodi manje poznate web stranice uz dobro poznate, vjerodostojne izvore, piše Gizmodo.