BUDITE OPREZNI

Ove informacije nikad ne smijete dijeliti s ChatGPT-jem i sličnim robotima

06.12.2024 u 09:28

Bionic
Reading

Kako se naša upotreba umjetne inteligencije povećava, izuzetno je važno razumjeti kako je neke informacije bolje zadržati za sebe

Chatbotovi kao što su ChatGPT i Googleov Gemini popularni su jer mogu generirati odgovore nalik ljudskima. Međutim, njihovo oslanjanje na velike jezične modele dolazi s rizicima po privatnost i sigurnost jer naši osobni podaci podijeljeni tijekom interakcija mogu biti razotkriveni ili zloupotrijebljeni.

Naime, mogu se naći u podacima za obuku drugih botova. Do njih također mogu doći hakeri - ako uspiju provaliti u sustav - i zlorabiti ih. Mogu završiti i kod partnera tvrtki kao što je OpenAI.

Kako biste osigurali svoju privatnost i sigurnost, postoji pet ključnih vrsta podataka koje nikada ne smijete dijeliti.

1) Financijski detalji

Iako mogu poboljšati financijsku pismenost, rizično je podijeliti pojedinosti o svojim financijama s AI chatbotovima jer mogu pasti u ruke nekome tko vam ne želi dobro, pa ih zlorabiti za prijevare, ucjene i tome slično. Stoga interakciju ograničite na općenite informacije i opća pitanja.

2) Osobne i intimne misli

Mnogi se korisnici okreću AI chatbotovima kako bi potražili terapiju, nesvjesni potencijalnih posljedica za njihovo mentalno blagostanje.

Ti botovi mogu biti dobar sugovornik, ali im nedostaje znanje o stvarnom svijetu i mogu ponuditi samo generičke odgovore na upite vezane uz mentalno zdravlje. To znači da lijekovi ili tretmani koje predlažu možda nisu prikladni za vaše specifične potrebe i mogu naškoditi vašem zdravlju.

Ovdje također vrijede već iznesena upozorenja vezana uz zaštitu privatnosti. Dokopa li se vaših intimnih misli netko neovlašten i zlonamjeran, mogli biste se naći u problemima.

Stoga ih koristite za opće informacije i podršku, ne kao zamjenu za profesionalnu terapiju. Ako trebate savjet ili liječenje za mentalno zdravlje, obratite se kvalificiranom stručnjaku za mentalno zdravlje.

3) Povjerljive informacije o radnom mjestu

Tehnološki divovi poput Applea, Samsunga i Googlea već su ograničili svojim zaposlenicima korištenje robota za brbljanje temeljenih na umjetnoj inteligenciji na radnom mjestu jer su već bili zabilježeni slučajevi nenamjerne objave osjetljivih informacija.

Možete zaštititi osjetljive informacije i zaštititi svoju organizaciju od nenamjernog curenja ili povrede podataka tako što ćete voditi računa o rizicima povezanim s dijeljenjem podataka povezanih s poslom.

4) Lozinke

Dijeljenje vaših lozinki na mreži općenito je vrlo, vrlo loša ideja. To vrijedi i za velike jezične modele na kojima botovi počivaju. Učinite li to, izlažete se velikim rizicima i potencijalnim problemima.

Kako biste se zaštitili, nikada svoje vjerodajnice za prijavu ne dijelite s chatbotovima, čak ni u svrhu rješavanja problema.

5) Podaci o prebivalištu i drugi osobni podaci

Osjetljive podatke kao što su vaša kućna adresa, datum rođenja i zdravstveni podaci, koje je moguće kako bi vas se identificiralo ili lociralo, trebate zadržati za sebe kad god je to moguće.

Evo nekoliko ključnih praksi kojih se trebate pridržavati: Upoznajte se s pravilima privatnosti chatbota kako biste razumjeli povezane rizike. Izbjegavajte postavljanje pitanja koja mogu nenamjerno otkriti vaš identitet ili osobne podatke. Budite oprezni i suzdržite se od dijeljenja svojih medicinskih podataka.

Imajte na umu potencijalne ranjivosti svojih podataka kada koristite botove na društvenim platformama kao što je SnapChat, piše Make Use Of.