Cilj je spriječiti stvaranje seksualno eksplicitnog materijala koji uključuje djecu te ga ukloniti s platformi društvenih medija i tražilica
Vodeće tvrtke za umjetnu inteligenciju - među kojima su OpenAI, Microsoft, Google, Meta Platforms i druge - zajednički su se obvezale spriječiti da se njihovi alati za umjetnu inteligenciju koriste za iskorištavanje djece i stvaranje materijala o seksualnom zlostavljanju djece.
Inicijativu predvode skupina za sigurnost djece Thorn i All Tech Is Human, neprofitna organizacija usmjerena na odgovornu tehnologiju. Cilj je spriječiti stvaranje seksualno eksplicitnog materijala koji uključuje djecu te ga ukloniti s platformi društvenih medija i tražilica.
Samo u 2023. u SAD-u je prijavljeno više od 104 milijuna datoteka s materijalom za koji se sumnja da sadrži seksualno zlostavljanje djece. Izostane li kolektivna akcija, generativna umjetna inteligencija može pogoršati ovaj problem i preplaviti agencije za provođenje zakona koje i ovako s teškoćama identificiraju prave žrtve.
U dokumentu Safety by Design for Generative AI: Preventing Child Sexual Abuse navedene su strategije i preporuke za tvrtke koje izrađuju alate za umjetnu inteligenciju, tražilice, platforme društvenih medija, hosting tvrtke i programere za korake kojima bi spriječili korištenje generativne umjetne inteligencije za nanošenje štete djeci.
Provedba je već djelomično počela
Jedna od preporuka, na primjer, traži od tvrtki pažljiv odabir skupova podataka koje se koristi za treniranje modela umjetne inteligencije i izbjegavaju one koji sadrže samo primjere zlostavljanja, ali i seksualni sadržaj za odrasle u cijelosti, zbog sklonosti generativne umjetne inteligencije da kombinira ta dva koncepta.
Od platformi društvenih medija i tražilica traži se uklanjanje poveznica na web-mjesta i aplikacije koje omogućuju objavu dječje pornografije. Neke su tvrtke već pristale odvojiti slike, video i audio koji uključuju djecu od skupova podataka koji sadrže sadržaj za odrasle, kako bi spriječili njihove modele da kombiniraju to dvoje.
Drugi također dodaju vodene žigove za identifikaciju sadržaja generiranog umjetnom inteligencijom, ali metoda nije besprijekorna - vodene žigove i metapodatke moguće je lako ukloniti, piše Engadget.