Els gegants tecnològics s’uneixen per combatre la generació d’imatges d’abús sexual infantil fetes amb IA

Empreses com Microsoft, Google o OpenAI es comprometen a eliminar material sensible en cas de trobar-lo i a brindar actualitzacions anuals de transparència

Categories:

Redacció

Les entitats hauran de sotmetre’s a rigoroses proves per demostrar que la seva IA generativa no està entrenada per crear fotografies d’abús sexual infantil
Les entitats hauran de sotmetre’s a rigoroses proves per demostrar que la seva IA generativa no està entrenada per crear fotografies d’abús sexual infantil | Janko Ferlič (Unsplash)

Companyies tecnològiques enfocades en el desenvolupament d’eines d’intel·ligència artificial (IA) de la talla de Microsoft, Amazon, Meta, Google i OpenAI s’han compromès públicament a combatre les imatges d’abús sexual infantil i a seguir una sèrie de mesures de seguretat. La iniciativa, impulsada per les organitzacions Thorn i All Tech is Human, proposa uns principis que caldria aplicar en l’àmbit de l’entreteniment i com s’hauria de funcionar en l’aplicació de models d’IA generativa.

D’aquesta manera, les empreses evitaran la creació i la difusió de continguts d’aquesta tipologia. Per això, s’hauran d’assegurar que les dades emprades per entrenar la seva tecnologia no inclouen aquesta mena de fotografies, evitar les bases de dades d’alt risc i eliminar el material sensible en cas de trobar-lo. A banda, les entitats hauran de sotmetre’s a rigoroses proves per demostrar que tampoc poden crear aquestes imatges, garantir la seguretat dels dissenys i brindar actualitzacions anuals de transparència.

Segons dades de Thorn, només als Estats Units es van detectar més de 104 milions d’arxius que incloïen material d’abús sexual infantil l’any 2023. “La IA generativa fa que la creació de grans volums de continguts sigui més fàcil d’usar que mai”, assenyala en el comunicat, “aquests actors maliciosos poden convertir fotografies i vídeos originals en un nou material d’abús, revictimitzant els nens en aquests continguts o manipulant material infantil benigne per sexualitzar-lo.