‘Deepfakes’ pornogràfics: Quan la IA despulla la teva intimitat i vulnera els teus drets

L’enorme avanç de les xarxes generatives i la manca de regulació específica dispara la creació de vídeos falsos un 464% en només un any

Categories:

RedaccióNúria Bigas / UOC News

El 99% del contingut pornogràfic generat amb intel·ligències artificials generatives és protagonitzat per dones
El 99% del contingut pornogràfic generat amb intel·ligències artificials generatives és protagonitzat per dones | Adobe Stock

“Desvesteix a qualsevol amb el nostre servei gratuït”, diu el missatge de benvinguda d'una pàgina web per crear deepfakes pornogràfics. No s'ha de ser cap expert per trobar aquests portals ni tampoc per fer-los servir, només cal pujar-hi una foto de cos sencer i esperar menys d'un minut per obtenir el resultat esperat. Per fer un vídeo porno deepfake de 60 segons, calen menys de 25 minuts i costa zero euros (si la web és gratuïta, encara que també n’hi ha de pagament) utilitzant només una imatge del rostre d’algú, segons dades de l’informe State of deepfakes 2023 de Home Security Heroes. “La creació d'imatges sexuals creades per intel·ligència artificial, o deepfakes sexuals, no es contempla, encara, com un delicte específic en el Codi Penal. Ara bé, atesa la idea de la violència de gènere com tota aquella violència que en la seva extensió s'exerceix contra les dones, la creació d'aquesta mena d'imatges no deixa de ser una eina i una forma de violència més contra aquestes”, explica la professora dels Estudis de Psicologia i Ciències de l'Educació i del grau de Criminologia de la Universitat Oberta de Catalunya (UOC) Rocío Pina. “Es desinforma, es manipula i es destrueix la reputació de la víctima de la mateixa manera que ho fa el revenge porn (porno de venjança) o la sextorsió”, afegeix.

D'acord amb l'estudi abans esmentat, entre el 2022 i el 2023, la quantitat de pornografia deepfake creada va augmentar un 464%, passant de 3.725 vídeos el 2022 a 21.019 el 2023, un patró alarmant segons els mateixos investigadors de l'informe. “Aquestes aplicacions es fonamenten en sistemes d'intel·ligència artificial generatius, en aquest cas imatges: creen un algorisme que s'ha entrenat amb moltíssimes imatges i que s'ha combinat amb una aplicació web o una aplicació mòbil, en la qual l'aportació d'entrada és una imatge i la de sortida una altra imatge, però s'hi aplica una transformació, que en aquest cas és un nu”, explica el professor dels Estudis d'Informàtica, Multimèdia i Telecomunicació de la UOC Josep Curto.

La quantitat de pornografia 'deepfake' ha augmentat un 464% entre 2022 i 2023, passant de 3.725 vídeos a més de 21.000

Aquest fenomen transgredeix dos grans drets: la protecció de dades o privadesa, i també la intimitat, honor i pròpia imatge. “Es vulnera la normativa de protecció de dades perquè hi ha una difusió d'informació que, encara que sigui essencialment falsa, s'utilitzen dades personals reals, com el rostre d'una persona o de vegades fins i tot la veu, i això comporta sovint un tractament de dades personals sense consentiment de l'afectat”, detalla el professor col·laborador dels estudis de Dret i Ciència Política de la UOC, Eduard Blasi. “A més, la vulneració de la normativa també s'ocasiona a l'hora de compartir o difondre aquestes creacions amb IA a terceres persones o a través de xarxes socials en obert, també sense el consentiment de l'afectat”, continua l’expert en dret a la privadesa, tot indicant que “la norma obliga a demanar el permís de l'interessat no només per a la creació d'aquestes imatges sinó també per a la seva difusió posterior a un alt nombre de persones o en xarxes socials”.

A més, cal destacar la naturalesa d'aquesta informació i l'impacte sobre els subjectes afectats. En particular, afegeix Blasi, “aquestes imatges comporten sovint un tractament de dades delicades, ja que la informació està relacionada amb la vida íntima o sexual d'una persona”. Això condueix al fet que, en funció de la imatge generada mitjançant aquesta tecnologia, “es pot ocasionar també una lesió al dret a l'honor, intimitat o pròpia imatge de la persona”.

El 99% del fake dirigit contra les dones

“La immensa majoria dels vídeos tenen les dones com a víctimes, que veuen vulnerat el seu dret a la pròpia imatge, convertida en un objecte de consum pornogràfic”, assegura la professora dels estudis de Ciència de la Informació i de la Comunicació de la UOC Cristina Pujol, un fet confirmat per l’informe State of deepfake 2023: el 99% del contingut pornogràfic deepfake és protagonitzat per dones. “Té un efecte psicològic important perquè representa unes pràctiques sexuals que, encara que mai hagin ocorregut en realitat, són molt realistes”, assevera Pujol, qui també és investigadora del grup de recerca GAME.

"Desafortunadament, hi ha un mercat molt gran que està més orientat a generar imatges de dones nues. No significa que sigui més fàcil generar imatges de dones que d'homes, però bàsicament cap aquí s'orienten aquests serveis. A més, els grans consumidors de pornografia són homes i, per tant, aquests són el públic al qual estan apuntant", detalla Curto. De fet, segons l'informe esmentat, el 48% dels homes enquestats afirmaven haver vist pornografia deepfake almenys una vegada i, d’aquests, el 74% no se sentia culpable pel consum. “És una manera d'estendre un terror sexual cap a les dones en un context de ciberassetjament generalitzat en què prolifera una doble moral que penalitza o sanciona socialment les dones que apareixen en vídeos sexuals amb molta més duresa que quan els protagonistes són homes”, afegeix Pujol.

Pujol: “És una manera d'estendre un terror sexual cap a les dones en un context de ciberassetjament generalitzat en què prolifera una doble moral que penalitza o sanciona socialment les dones que apareixen en vídeos sexuals amb molta més duresa que quan els protagonistes són homes”

Contingut fals, impacte psicològic real

“Encara que les imatges no siguin reals, l'impacte i la repercussió que tenen cap a les víctimes són molt elevats, perquè la sexualitat femenina s'ha construït sobre la culpa i la vergonya”, rebla Pujol. Una situació que no afecta igual les seves contraparts masculines: “Per als homes, fer gala de les seves conquestes sexuals ha estat sempre un símbol de masculinitat (el mateix terme de conquesta ja implica un assoliment), les dones objecte d'aquestes conquestes s'han vist exposades a la vergonya pública”. En aquesta línia, Pina és clara: “Podem equiparar les conseqüències que té a les mateixes que podria arribar a tenir qui pateix qualsevol altre tipus de ciberdelinqüència sexual”.

Entre aquests efectes es troben la pèrdua de qualitat de vida de les dones, l'impacte en la seva situació laboral en no poder participar en igualtat de condicions en el món digital o l'atenció mèdica que requereixen. De fet, el Parlament Europeu ha estimat el valor econòmic per al conjunt de la UE d'aquestes problemàtiques en una xifra que està entre els 49.000 i els 89.300 milions d'euros. Altres recerques afirmen que s'han trobat “altes taxes” de problemes de salut mental —com ara ansietat, depressió, autolesions i suïcidi— com a resultat d'aquest abús digital, independentment de si és un deepfake o un vídeo real. “Aquesta nova forma d'exercir violència per mitjans digitals amplia el seu abast i magnifica les conseqüències en les víctimes que les pateixen”, explica Pina.

Els 'deepfakes' tenen unes conseqüències per la salut mental de les dones equiparables a la ciberdelinqüència sexual, com la pèrdua de qualitat de vida, un impacte en la situació laboral o l'atenció mèdica requerida

Al creixement disparat que han experimentat els deepfakes se’ls suma, segons Pujol, el “context viral” en què vivim, en el qual “la capacitat de resposta és ínfima respecte al mal causat”. La dificultat per controlar aquestes tecnologies de generació d'imatge es complica per la facilitat d'accés que hi ha (programari lliure, models d'algorismes que es poden descarregar i reutilitzar) i la dificultat de fer una traçabilitat d'aquesta imatge. “Estem vivint una situació de proliferació massiva d'aquestes noves aplicacions, ja que hi ha hagut grans avanços en aquests sistemes generadors de text i d'imatge en l'últim any”, adverteix Curto.

Pornografia infantil a través de la IA

Aquest nou mètode de violència digital contra les dones és cada vegada més popular, però també ho està sent contra les nenes o joves menors. Enguany, han estat diversos els casos de creació de pornografia infantil a través de la intel·ligència artificial, com el d'Almendralejo o el dels quatre jugadors del Reial Madrid.

L'últim estudi realitzat per Internet Watch Foundation confirma l'augment d'aquests continguts de manera preocupant. Durant un mes es va monitorar l'activitat de la web i es van trobar 11.108 imatges sospitoses d'infringir algun delicte relacionat amb l'abús sexual infantil. D'aquestes, prop de 3.000 eren il·legals, segons la llei del Regne Unit sobre l'abús infantil, i una de cada cinc, 564, es classifiquen com a categoria A, que és el tipus més greu. “L'impacte d'aquesta difusió pot derivar en conseqüències emocionals i de comportament diferents. Si bé sempre dependrà de l'abast de la conducta patida, el temps o la importància subjectiva que qui pateix aquest tipus d'agressió pugui tenir, diverses investigacions ja han evidenciat efectes negatius que es poden fer visibles a partir de trastorns depressius i ansiosos, pèrdua d'autoestima, impotència, alteracions del son, de la conducta alimentària o el consum de substàncies, entre d'altres”, alerta Pina. Segons un informe de l'Observatori Nacional de Tecnologia i Societat (ONTSI) del 2022, el 42% de les nenes i joves que han patit abús en línia mostren estrès emocional, baixa autoestima i pèrdua d'autoconfiança.  

El 42% de les nenes i joves que han patit abús en línia mostren estrès emocional, baixa autoestima i pèrdua d'autoconfiança

IWF afirma que hi ha proves raonables que la IA està ajudant a “despullar” els nens de qui s'hagin pujat imatges vestides a internet, i que augmenta el potencial de revictimització de les víctimes conegudes d'abús sexual infantil. A més, adverteix que la majoria dels resultats generats per IA trobats són prou realistes per ser tractats com a continguts d'abús sexual infantil “real”. Segons els mateixos investigadors de l'estudi, és cada vegada més difícil distingir el contingut real del fals. “Els sistemes generadors d'intel·ligència artificial fa ja molt temps que existeixen, però no eren precisos, hi havia molts errors en la disposició dels elements d'una cara, de les mans... S'han realitzat molts avanços en què, bàsicament, aquests defectes s'han anat corregint de manera progressiva”, relata Curto. Aquesta millora, continua, s'ha donat en els últims sis mesos o un any, però “s'ha focalitzat a millorar l'algorisme i no s'ha atès quines podrien ser les derivades dels casos d'ús d'aquesta tecnologia”.

Soc víctima d'un deepfake pornogràfic, què puc fer?

A l’Estat espanyol hi ha, des de fa alguns anys, un mecanisme per frenar urgentment la transmissió d'aquestes imatges. “Es pot acudir directament al canal prioritari de l'Agència Espanyola de Protecció de Dades. És un canal indicat per a situacions on hi hagi una sensibilitat, sigui per qüestions sexuals o en compartició d'imatges íntimes, o bé on es vegin agressions, en temes d'assetjament, d'assetjament escolar, fonamentalment”, explica Blasi. En menys de 24 hores, a través de l'Agència de Dades, s'intentarà evitar que es comparteixi aquesta informació o que es continuï difonent per tallar així la cadena de transmissió. “Una altra via que pot activar-se en paral·lel és la penal. La compartició o la difusió d'aquestes imatges pornogràfiques creades o no amb intel·ligència artificial comporta la comissió d'un delicte tipificat en el Codi Penal, tant si es tracta de menors com si no”, confirma l'expert.

Després, s'ha de posar una denúncia al cos de policia indicat (Policia Nacional, Guàrdia Civil o Mossos d'Esquadra), que té brigades tecnològiques que s'encarreguen, precisament, d'identificar qui n'ha estat el creador i de perseguir aquest delicte en particular. “I, com a última via, la civil, els danys i perjudicis. En cas d'haver patit danys quantificables i reals (moltes vegades aquest tipus de situació hi dona lloc), es pot iniciar una via civil on es busqui una compensació econòmica per aquesta mena de danys”, conclou Blasi.