Google je upozorio vlastite zaposlenike da ne otkrivaju povjerljive informacije niti koriste računalni kod koji je generirao Bard, njegov robot za brbljanje temeljen na umjetnoj inteligenciji
Interna je zabrana u divu iz Mountain Viewa uvedena zbog toga što Bard može ispisati 'neželjene prijedloge koda'.
Korištenje Barda bi potencijalno moglo dovesti do programa s greškama ili složenog, prenapuhanog softvera za koji će programerima trebati više vremena kako bi ga popravili nego da uopće nisu koristili umjetnu inteligenciju za kodiranje.
U Google su također korisnicima preporučili da ne uključuju osjetljive informacije u svoje razgovore s Bardom.
Druge velike tvrtke na sličan su način upozorile svoje osoblje na curenje osjetljivih dokumenata ili računalnog koda te su im zabranile korištenje drugih chatbota temeljenih na umjetnoj inteligenciji.
Interno upozorenje Googlea, doduše, razlog je za zabrinutost.
Ako alate temeljene na umjetnoj inteligenciji ni njihovi tvorci ne koriste zbog rizika po privatnost i sigurnost, kako mogu biti sigurni za druge?
Uz to, upozoravanje vlastitih radnika da izravno ne koriste kod koji je generirao Bard potkopava Googleove tvrdnje da njegov chatbot može pomoći programerima da postanu produktivniji, piše Register.