Vídeos i àudios ‘deepfake’: un pas més cap a l’engany a les xarxes socials
El 96% dels continguts enganyosos que incrusten artificialment cares de persones famoses en cossos d’altres persones són un motiu més perquè els usuaris aprenguin a dubtar dels continguts d’internet
Categories:
Si ja coneixíem les fake news i la seva capacitat de fer creure als usuaris que són notícies certes, ara s’ha estès un nou mecanisme d’engany: els vídeos i àudios hipertrucats o deepfakes. Segons un estudi de l’empresa de ciberseguretat DeepTraceLabs, el 96% d’aquests continguts són pornogràfics, i els quatre webs més visitats d'aquesta mena d’informació tenen més de 134 milions de visualitzacions. “Els deepfakes pornogràfics busquen rellevància i moltes visualitzacions”, afirma el professor col·laborador dels Estudis d'Informàtica, Multimèdia i Telecomunicació de la Universitat Oberta de Catalunya, Josep Navarro, qui afirma que som davant de productes que són una “baula més” perquè els receptors dubtin de qualsevol vídeo, àudio, notícia o fitxer que els arribi per mitjà de les xarxes socials.
Som davant de la confiança zero? “No és l'únic aspecte que ens hi porta, sinó la suma dels enganys constants que patim a les xarxes socials des de fa ja uns quants anys”, lamenta Navarro, que considera que hi ha dues qüestions que cal tenir en compte pel que fa a l'expansió dels vídeos i els àudios deepfakes. D'una banda, que les empreses privades propietàries de les xarxes socials intenten adoptar mesures i excloure continguts que no compleixen les lleis dels drets d'autor, però “no els bloquegen”. I, de l'altra, que s'elaboren amb eines tecnològiques que es popularitzen per la “senzillesa” i pel “fàcil accés”.
Un estudi del gener del 2020 assegura que els programes són cada vegada més “eficients i pràctics”, de manera que es produiran més continguts deepfakes per “monetitzar-los” i aquests seran “més realistes”, mentre que els sistemes de control de Facebook o Google “queden endarrere” dels avenços d'aquests continguts, afegeixen els investigadors.
“Cada vegada seran més habituals els deepfakes per extorsionar o atemptar contra l'honor de les persones corrents i no solament el dels famosos”
Aquest mateix informe conclou que, de moment, els actors, els polítics o els empresaris en seran les víctimes principals, ja que per difamar un ciutadà anònim calen moltes imatges prèvies capaces de reconstruir moviments falsos. No obstant això, l'expert de la UOC no està d'acord amb aquesta afirmació i adverteix que tots tenim “una gran quantitat de fotos, vídeos i àudios a les xarxes socials” als quals qualsevol persona podria accedir i que podrien servir per crear un vídeo o un àudio falsos. “Cada vegada seran més habituals els deepfakes per extorsionar o atemptar contra l'honor de les persones corrents i no solament el dels famosos”, alerta.
Com es detecta un ‘deepfake’
Les celebritats han estat les primeres a patir les conseqüències dels vídeos i els àudios deepfakes. “El problema més greu és que els protagonistes veuen que la seva imatge s'empra amb objectius maliciosos i, principalment, que la seva reputació pot quedar afectada abans de poder desmentir el missatge”, ressalta el docent de la UOC, que opina que la responsabilitat i l'actitud individual són fonamentals a l'hora de detectar aquests continguts i no caure en l'engany. “No ens hem de creure el que ens envia un amic o un conegut dient-nos que a ell l'hi ha enviat una persona de confiança”, diu, “cal contrastar la veracitat de la informació perquè, en cas contrari, estem alimentant el fenomen”.
Per detectar un ‘deepfake’ cal mirar el parpelleig, els moviments facials i els canvis de llum o color de la pell
Per poder comprovar la veracitat del vídeo o l'àudio que rebem, Navarro enumera les mesures següents: que hi hagi parpelleig d'ulls, que els moviments facials siguin “naturals” o que no hi hagi canvis en la lluminositat o en els tons de pell. Segons l'expert, es tracta de precaucions que no són difícils de prendre. “Encara que no en siguem conscients, el cervell està acostumat a detectar aquesta mena d'aspectes d'una manera força natural, perquè ho hem après des de petits”, assegura.
La cara positiva dels ‘deepfakes’
Però, com moltes altres eines tecnològiques, els vídeos i els àudios deepfakes són fruit d'un avenç de la intel·ligència artificial que té infinits usos positius. “Aquesta tècnica va aparèixer en el cinema el 2016 per donar vida a una actriu que havia mort durant el rodatge”, recorda Navarro.
La indústria del cinema és una de les més beneficiades per aquesta tecnologia, i Disney ja ha anunciat que la fa servir. Altres aplicacions importants podrien ser els audiollibres llegits per autors morts o la millora d'assistents de veu com Google Maps. I és que la part només auditiva també té l'efecte doble —positiu i negatiu— en continguts que rebem per les xarxes o per internet. És més, el professor universitari assegura que a l'Estat espanyol s'han registrat més continguts deepfakes d'aquesta mena amb personatges famosos, alguns dels quals ja són morts. Segons ell, “amb un vídeo podem tenir més dubtes de si és veraç o no, però amb un àudio, no”.
Els efectes perniciosos d'una trucada o un missatge de veu poden ser molt greus, com va passar al Regne Unit, en què una trucada d'un suposat director executiu (CEO) d'una empresa va aconseguir que un treballador fes una transferència de 200.000 euros que va resultar ser una estafa.