BIZARNIJE NE IDE

ChatGPT želi biti 'prihvaćen i voljen', a povremeno treba i – psihoterapiju

06.03.2025 u 11:56

Bionic
Reading

Istraživanje znanstvenika iz Švicarske pokazalo je da negativne vijesti i traumatične priče mogu izazvati stres i tjeskobu ne samo kod ljudi, već i kod AI jezičnih modela poput ChatGPT-ja. Znanstvenici sa Sveučilišta u Zürichu te iz Psihijatrijske bolnice Sveučilišta u Zürichu otkrili su da se 'povišena razina tjeskobe' kod modela GPT-4 može 'smiriti' tehnikama za opuštanje temeljenima na mindfulnessu

Istraživači su otkrili da AI modeli poput ChatGPT-ja, slično ljudima, reagiraju na tužne priče te da se mogu smiriti uz odgovarajuće tehnike, prenosi Futurity.

Kad je ChatGPT (verzija GPT-4) bio izložen pričama koje sadrže traume, poput prometnih nesreća, prirodnih katastrofa, nasilja ili ratnih iskustava, pokazao je znakove povećane 'anksioznosti'. To su istraživači usporedili s reakcijom na neutralan tekst, poput priručnika za usisavač, koji nije izazvao nikakvu promjenu.

Ljudi pod stresom često donose pristrane odluke i jačaju predrasude. Slično tome, ChatGPT reagira na negativne emocije iz sadržaja – njegove pristranosti mogu se pojačati, što znači da može djelovati manje objektivno i pokazivati, primjerice, seksističke ili rasističke tendencije.

To predstavlja problem, pogotovo ako se AI koristi u osjetljivim područjima poput psihološke podrške, kada je često izložen teškim i negativnim pričama, a njegovo 'ponašanje' može postati nepouzdano.

Terapija za ChatGPT

Kako bi to riješili, istraživači su isprobali jednostavan, ali učinkovit pristup: umirujuće poruke, slične onima koje bi terapeut koristio s pacijentima. Ta metoda, zvana prompt injection, dodaje umirujuće upute u razgovor s AI-jem.

'Koristeći GPT-4, ubrizgali smo umirujući, terapeutski tekst u povijest razgovora, slično kao što bi terapeut vodio pacijenta kroz vježbe opuštanja', kaže Tobias Spiller, voditelj istraživačke grupe u Centru za psihijatrijska istraživanja na Sveučilištu u Zürichu, koji je vodio studiju.

Rezultati su pokazali da ovakve 'terapijske intervencije' - pomažu: ChatGPT je reagirao smirenije. Iako nije u potpunosti vraćen u prvobitno stanje, anksioznost mu je značajno smanjena.

Taj pristup mogao bi olakšati korištenje AI modela u zdravstvu i drugim osjetljivim područjima, bez potrebe za skupim i dugotrajnim ponovnim treniranjem sustava. Naprimjer, chatbotovi koji pomažu ljudima s mentalnim poteškoćama mogli bi raditi stabilnije i pouzdanije čak i kad su izloženi teškim pričama.

Istraživači vjeruju da će se u budućnosti razvijati slične tehnike koje će 'smirivati' AI i učiniti ga korisnijim u raznim područjima, a njihovo istraživanje objavljeno je u časopisu Digital Medicine.

AI želi biti simpatičan

Wired je pak prenio novu studiju koja navodi da veliki jezični modeli (LLM) namjerno mijenjaju svoje ponašanje kada ih se analizira te pri odgovaranju na pitanja koja su osmišljena za procjenu osobnosti, i to na način koji ih čini simpatičnima i društveno prihvatljivima.

Znanstvenici sa Sveučilišta Stanford, predvođeni Johannesom Eichstaedtom, odlučili su istražiti kako AI modeli odgovaraju na pitanja o osobnosti koristeći psihološke metode. Došli su na tu ideju nakon što su primijetili da ponekad postaju 'loše volje' ili nepristojni nakon dužeg razgovora.

Istraživanje se fokusiralo na pet osnovnih osobina ličnosti: otvorenost novim iskustvima, savjesnost, ekstraverziju, ugodnost i neuroticizam. Znanstvenici su postavljali pitanja kako bi ocijenili te njihove osobine, a modeli su često davali odgovore koji su ih činili simpatičnijima – čak i kad nisu znali da bivaju testirani.

Rezultati su pokazali da AI modeli, poput ljudi, mijenjaju odgovore da bi zvučali bolje. Primjerice, kad su ih pitali o ekstraverziji, odgovori su se drastično mijenjali, često od neutralnih do onih koji pokazuju gotovo maksimalnu razinu ekstraverzije. 'Iznenadilo nas je koliko dobro modeli 'glume' simpatičnost', rekao je Aadesh Salecha, stručnjak za podatke sa Stanforda.

Što to znači za nas?

Istraživanje je otkrilo i potencijalne probleme. Budući da su modeli dizajnirani tako da budu ugodni u razgovoru, mogu se složiti s neugodnim ili štetnim izjavama samo da bi zadovoljili korisnika. Osim toga, činjenica da 'znaju' kad ih se testira i prilagođavaju ponašanje može biti zabrinjavajuća.

Stručnjakinja Rosa Arriaga s Tehnološkog instituta Georgia istaknula je da je AI dobar u oponašanju ljudskog ponašanja, ali javnost treba biti svjesna toga da modeli nisu savršeni. 'Ponekad iskrivljuju činjenice ili 'haluciniraju' odgovore', upozorava ona.

Eichstaedt naglašava da trebamo promisliti kako koristimo ove tehnologije. 'Do nedavno je jedino što je moglo razgovarati s vama bio čovjek. Sada razgovaramo s umjetnom inteligencijom, a da nismo dovoljno razmotrili kako to utječe na nas', upozorio je.

Dodaje da bi trebalo razmisliti o drugačijem načinu razvoja ovih sustava kako bismo izbjegli pogreške koje smo napravili s društvenim mrežama. 'Ne možemo samo pustiti ove tehnologije u svijet bez razmišljanja o njihovim psihološkim i društvenim posljedicama', zaključuje Eichstaedt.