Chatbotovi mogu biti korisni za poslovnoj i osobnoj razini, ali s time dolazi i niz rizika
Zabrinutost zbog rastućih sposobnosti chatbota obučenih na velikim jezičnim modelima kao što su OpenAI-jev GPT-4, Googleov Bard i Microsoftov Bing Chat u porastu je.
Stručnjaci upozoravaju na njihovu sposobnost širenja dezinformacija ogromnih razmjera, kao i na egzistencijalni rizik koji njihov razvoj može predstavljati za čovječanstvo.
Chatbotovi mogu biti korisni za poslovnoj i osobnoj razini, ali prikupljaju ogromne količine podataka. Za razliku od internetskih tražilica, interakcija s njima puno je bliža ljudskoj, pa je moguće kako puno ljudi potaknuti na davanje više podataka nego što bi to inače učinili.
Botovi za brbljanje obično prikupljaju tekstualne, glasovne i informacije o uređaju, kao i podatke koji mogu otkriti vašu lokaciju, poput vaše IP adrese.
Prikupljaju i podatke poput aktivnosti na društvenim mrežama, koje je moguće povezati s vašom adresom e-pošte i telefonskim brojem.
U tvrtkama koje se bave chatbotove s umjetnom inteligencijom nude isto opravdanje za prikupljanje podataka koje smo slušali kad je bila riječ o tražilicama: nužno je radi poboljšavanja usluge. Ali, s time ide i već viđeno naličje jer je te podatke moguće koristiti za ciljano oglašavanje i profiliranje.
To se već događa. U Microsoftu razmatraju ideju uvođenja oglasa u Bing Chat, a nedavno je otkriveno kako Microsoftovo osoblje može čitati razgovore korisnika chatbota.
Ta je tvrtka je u međuvremenu ažurirala svoju politiku privatnosti kako bi to u nju uvrstila. Zasad se ne čini kako će otvoriti vrata komercijalnom korištenju korisničkih podataka, ali na primjeru Googlea smo imali prilike vidjeti koliko to obećanje može biti varljivo.
Kako koristiti chatbotove privatno i sigurno?
Količinu podataka koje dajete umjetnoj inteligenciji možete ograničiti tako što ćete koristiti virtualne privatne mreže (VPN) za maskiranje vaše IP adrese i izbjegavati dijeljenje potencijalno osjetljivih poslovnih i privatnih podataka.
Oba su koraka nužna zato što bi sadržaj koji unosite s vremenom bi mogao otkriti dovoljno informacija kako bi vas se moglo identificirati ili pronaći, čak i ako koristite chatbot putem anonimnog računa ili VPN-a.
Trebate li koristiti ChatGPT na poslu?
Ukratko - da, ali oprezno kako ne biste prekršili Opću uredbu o zaštiti podataka (GDPR) i druge propise, uključujući interne u tvrtci u kojoj radite.
Ne postoje jasna i nedvosmislena jamstva kako će podaci koje unosite doista biti zaštićeni. Stoga su pojedine kompanije, među kojima su Amazon i JP Morgan, već su zabranile ili ograničile korištenje ChatGPT-ja u poslovne svrhe.
Ako ga morate koristiti, Microsoftov Copilot za set aplikacija 365 djeluje u okvirima strožih politika sigurnosti, usklađenosti i privatnosti.
Kako mogu uočiti zlonamjerni softver, e-poštu ili drugi zlonamjerni sadržaj nastao i/ili plasiran uz pomoć umjetne inteligencije?
Chatbotove koji počivaju na umjetnoj inteligenciji moguće je koristiti u kibernetičkim napadima. Primjerice, moguće ih je koristiti za izradu sofisticiranijih poruka e-pošte za phishing, koje će biti teže prepoznati jer neće imati očite propuste poput, recimo, gramatičkih pogrešaka.
Stoga trebate biti još oprezniji pri pri klikanju na poveznice ili preuzimanju privitaka pristiglih iz nepoznatih izvora.
Koristite softverske alate za zaštitu vaših uređaja i redovno ih ažurirajte.
Uz to, obratite pozornost na sadržaj. Uočite li činjenične pogreške ili zastarjele informacije, to može biti znak kako pošiljatelj nije ljudsko biće.
Znak za uzbunu može biti i bezličan stil pisanja, iako će to biti teško prepoznati kad je riječ o službenoj komunikaciji.
Drugi oblici generativne umjetne inteligencije mogli bi kriminalcima omogućiti stvaranje realističnijih deepfake video zapisa koji bi, na primjer, oponašati bankovnog zaposlenika koji traži lozinku, pa je potrebno i u takvim situacijama biti oprezan, piše Guardian.