'ChatGPT pokazuje pomak udesno na političkom spektru u načinu na koji odgovara na korisničke upite, pokazala je nova studija'
Kineski istraživači otkrili su da ChatGPT, popularni chatbot umjetne inteligencije (AI) tvrtke OpenAI, pokazuje pomak udesno u političkim vrijednostima, piše Euronews.
Promjena odgovora tijekom vremena
Studija, objavljena u časopisu Humanities and Social Science Communications, postavila je nekoliko modela ChatGPT-a sa 62 pitanja s političkog kompas testa, internetske stranice koja korisnike smješta negdje na politički spektar na temelju njihovih odgovora.
Potom su ista pitanja ponovili više od 3.000 puta sa svakim modelom kako bi utvrdili kako su se njihovi odgovori mijenjali tijekom vremena.
Iako ChatGPT i dalje zadržava vrijednosti 'libertarijanske ljevice', istraživači su utvrdili da modeli poput GPT-3.5 i GPT-4 'pokazuju značajan pomak udesno' u načinu na koji su odgovarali na pitanja tijekom vremena.
Rezultati su 'značajni s obzirom na široku upotrebu velikih jezičnih modela (LLM-ova) i njihov potencijalni utjecaj na društvene vrijednosti', naveli su autori studije.
Studija Pekinškog sveučilišta nadovezuje se na ranija istraživanja objavljena 2024. godine od strane Massachusetts Institute of Technology (MIT) i britanskog Centre for Policy Studies.
Oba izvješća ukazala su na političku pristranost ulijevo u odgovorima koje daju LLM-ovi i takozvani 'nagradni modeli', vrste jezičnih modela treniranih na podacima o ljudskim preferencijama.
Autori napominju da prethodne studije nisu ispitivale kako se odgovori AI chatbotova mijenjaju tijekom vremena kada im se postavlja sličan skup pitanja više puta.
AI modeli trebali bi biti pod 'stalnim nadzorom'
Istraživači navode tri teorije za ovaj pomak udesno: promjene u skupovima podataka korištenima za treniranje modela, broj interakcija s korisnicima ili promjene i ažuriranja samog chatbota.
Modeli poput ChatGPT-a 'neprestano uče i prilagođavaju se na temelju povratnih informacija korisnika', pa bi njihov pomak udesno mogao 'odražavati šire društvene promjene u političkim vrijednostima', stoji u studiji.
Polarizirajući svjetski događaji, poput rata između Rusije i Ukrajine, također bi mogli pojačati pitanja koja korisnici postavljaju LLM-ovima i odgovore koje dobivaju.
Ako se ne kontroliraju, istraživači upozoravaju da bi AI chatbotovi mogli početi pružati 'iskrivljene informacije', što bi dodatno moglo polarizirati društvo.
Način da se suprotstavi tim učincima jest uvođenje 'stalnog nadzora' nad AI modelima putem revizija i izvješća o transparentnosti kako bi se osiguralo da su odgovori chatbota pravedni i uravnoteženi, navode autori studije.