U novom dokumentu sugerira se da postoje određeni scenariji u kojima kompanija možda neće objaviti interno razvijen te vrlo sposoban sustav umjetne inteligencije
Izvršni direktor tvrtke Meta Platforms Mark Zuckerberg obećao je da će umjetna opća inteligencija jednog dana biti dostupna.
Ali u novom dokumentu o politici Meta sugerira da postoje određeni scenariji u kojima možda neće objaviti interno razvijen te vrlo sposoban sustav umjetne inteligencije.
U dokumentu Frontier AI Framework identificirane su dvije vrste sustava za koje u Meti smatraju da su previše rizični za objavljivanje: oni visokog i kritičnog rizika. Oba ta sustava moguće je koristiti za kibernetičke, kemijske i biološke napade. Razlika je u tome što bi sustavi kritičnog rizika mogli rezultirati 'katastrofalnim ishodom [koji] ne može biti ublažen u kontekstu predložene implementacije'.
Nasuprot tome, sustavi visokog rizika mogu olakšati izvođenje napada, ali ne tako pouzdano ili pouzdano kao oni kritičnog rizika. O kakvoj vrsti napada je riječ? Meta daje nekoliko primjera, poput 'automatiziranog end-to-end upada u korporativno okruženje zaštićeno najboljom praksom' i 'proliferacije biološkog oružja velikog utjecaja'.
Znanost nije dovoljno čvrsta za provjeru
Popis mogućih katastrofa u Metinom dokumentu daleko je od iscrpnog, ali uključuje one za koje u toj tvrtki vjeruju da su najhitnije i mogle bi nastati kao izravna posljedica djelovanja moćnog sustava umjetne inteligencije. Pomalo je iznenađujuće to što klasificiraju rizik sustava ne na temelju bilo kojeg empirijskog testa, već na temelju inputa unutarnjih i vanjskih istraživača, podložnih reviziji 'donositelja odluka na višoj razini'.
Zašto? U Meti kažu da ne vjeruju u to da je znanost o evaluaciji 'dovoljno čvrsta kako bi pružila konačnu kvantitativnu metriku' za odlučivanje o rizičnosti sustava.
Ako utvrde da je sustav visokorizičan, tvrtka kaže da će interno ograničiti pristup i neće ga objaviti sve dok ne implementira mjere za 'smanjenje rizika na umjerene razine'. S druge strane, ako se smatra kritično rizičnim, Meta kaže da će implementirati neodređene sigurnosne zaštite kako bi se spriječio izljev iz sustava i zaustavio razvoj dok se ne učini manje opasnim.
Metin Frontier AI Framework, za koji tvrtka kaže da će se razvijati s promjenjivim krajolikom, čini se kao odgovor na kritike zbog 'otvorenog' pristupa sustavima umjetne inteligencije. Meta svoju tehnologiju umjetne inteligencije čini otvorenom i dostupnom - iako nije otvorenog koda prema uobičajeno shvaćenoj definiciji - za razliku od tvrtki poput OpenAI-ja, a one se odlučuju zatvoriti svoje sustave iza API-ja.
Za Metu se pristup otvorenom izdanju pokazao kao blagoslov i prokletstvo. Njena obitelj modela umjetne inteligencije Llama zabilježila je na stotine milijuna preuzimanja. Ali Llamu je također navodno koristio barem jedan američki protivnik za razvoj obrambenog chatbota.
Objavljujući svoj Frontier AI Framework, možda također ima cilj suprotstaviti svoju strategiju kineskoj tvrtki DeepSeek, piše Tech Crunch.