Investigadors de la UOC utilitzen intel·ligència artificial per detectar ‘deepfakes’
El projecte DISSIMILAR fa servir marques d’aigua digitals i tècniques d’anàlisi forense de continguts digitals per identificar els continguts falsos
Categories:
La desinformació és una de les grans debilitats de les xarxes socials, espais on les fake news s’estenen amb rapidesa. En els darrers anys s’han popularitzat especialment els deepfakes, muntatges d’imatges, àudios i vídeos que aconsegueixen un alt nivell de realisme. Per tal de lluitar contra la seva expansió, un grup d’investigadors de l’Internet Interdisciplinary Institute (IN3) de la Universitat Oberta de Catalunya (UOC) treballa en un projecte que fa servir tècniques d’ocultació de dades i intel·ligència artificial per distingir de manera automàtica si un contingut audiovisual és real o està alterat.
La iniciativa, batejada amb el nom DISSIMILAR i en la qual també participen investigadors de la Universitat Tecnològica de Varsòvia (Polònia) i de la Universitat d'Okayama (Japó), té un doble objectiu: donar als creadors de continguts digitals una eina per poder identificar les seves creacions i detectar qualsevol modificació, i proporcionar als usuaris de xarxes socials una solució que els permeti identificar els continguts falsos. Fins ara, la majoria de tècniques per localitzar notícies falses requereixen una intervenció humana en el procés, la qual cosa pot derivar en "diferents biaixos" i fomentar la censura, segons el catedràtic de la UOC i director de l’IN3, David Megías. "Per això, en el projecte hem optat per explorar l'ocultació d'informació, les tècniques d'anàlisi forense de continguts digitals i, naturalment, l'aprenentatge automàtic", apunta.
Pel que fa a l’ocultació de dades, l’equip liderat per la UOC ha optat per l’ús de marques d’aigua virtuals, una tècnica que permet afegir als continguts informació imperceptible a primera vista que serveix per “indicar la legitimitat d'un contingut”, una funció especialment útil per mitjans de comunicació i agències de notícies. Una altra aplicació d’aquesta eina és fer-la servir com a marca d’autentificació, de manera que puguem identificar continguts modificats per l’absència d’aquesta marca. L’altra pota del projecte són les tècniques d’anàlisi forense de continguts digitals, unes tecnologies de processament de senyals que s’empren per detectar aquelles distorsions que sorgeixen quan es modifiquen continguts multimèdia, des de sorolls del sensor fins a petites alteracions visuals. "La idea és que la combinació de totes aquestes eines millori els resultats en comparació amb l'ús de solucions d'un sol tipus", comenta Megías.
Un dels aspectes que els impulsors de l’estudi volen assegurar és comptar amb un enfocament “holístic” que tingui en compte les diferències culturals de les fake news. Per aquesta raó, l’estudi es durà a terme en diverses fases i llocs diferents, amb grups d’usuaris de Catalunya, Polònia i el Japó: “Volem saber com es relacionen els usuaris amb les notícies, què els interessa, quins mitjans consumeixen segons els interessos que tenen, en què es basen per identificar certs continguts com a fake news i què estan disposats a fer per comprovar-ne la veracitat”. Posteriorment, la idea dels investigadors és poder integrar la ciutadania en el disseny de l’eina: "Ens agradaria que ens acompanyessin al llarg de tot el procés fins a arribar al prototip final, perquè així podrem respondre més bé a les seves necessitats i prioritats i arribar on altres solucions no han pogut arribar".