Imatges falses a les xarxes: una intoxicació evitable?

Davant la irregular eficàcia de les eines que detecten muntatges generats amb IA, el conflicte entre Israel i Hamas revifa la necessitat de verificar la identitat dels perfils que publiquen contingut

Categories:

Jordi Ortet

L’arrel del fenomen és l’impuls humà de crear i difondre aquest material i, en molts casos, la impunitat amb què es practica
L’arrel del fenomen és l’impuls humà de crear i difondre aquest material i, en molts casos, la impunitat amb què es practica | Kayla Velasquez (Unsplash)

Les cèlebres i falses imatges televisives del corb marí amarat de petroli a les costes del mar de Kuwait, o les dels soldats iraquians, vençuts, besant les mans dels marines americans durant la guerra del golf Pèrsic de 1991 semblen ara mateix dues ingenuïtats propagandístiques, en comparació amb el fenomen actual de les fake news visuals a les xarxes. El conflicte entre Israel i el grup palestí de Hamas ha disparat, novament, la presència de vídeos i fotografies sense contrastar o directament falses per refermar el relat a favor de qualsevol dels dos bàndols.

La UE, a través del Comissari Europeu del Mercat Interior i Serveis, Thierry Breton, publicava fa pocs dies una “carta urgent” dirigida a Elon Musk i a Marc Zuckerberg, advertint de la circulació de “contingut il·legal i propaganda terrorista” a Facebook i X (anteriorment Twitter), i exigia “mesures efectives” de control de continguts falsos o manipulats, amb una resposta “ràpida i diligent” per evitar que es difonguin abans de ser contrastats. És possible realment filtrar i eliminar aquests continguts de les xarxes amb eficàcia, ara que la intel·ligència artificial ha irromput com a generadora i manipuladora de tota classe d’imatges?

Un dels problemes principals és que les aplicacions sorgides per identificar fotografies i discernir si estan fetes amb IA, no funcionen bé. La imatge d’un presumpte cadàver carbonitzat d’un nadó va atiar, la setmana passada, una discussió entre aquells que, havent usat el mateix programa anomenat AI or Not, havien obtingut resultats contraris. Unes vegades, l’eina marcava la foto com autèntica i, d’altres, l’identificava com a generada amb l’ajuda de la IA.  

 

“Aquests programes de detecció estan apareixent massa ràpid i sovint són dolents. En el cas de les imatges, la clau és fixar-se en els fons. Les IA se solen concentrar en aquelles parts de la imatge que es demanen crear expressament i l’algoritme per defecte, s’oblida una mica de la resta i redueix els píxels dels fons, on rarament es troben elements amb una gran definició. En canvi, si busques un fons molt ben definit, les parts centrals de la foto coixejaran”, explica l’investigador docent de la UAB, especialitzat en els impactes socials i cognitius de les TIC i la IA, David Casacuberta. 

“Si tinguessin interès, les grans companyies podrien dur a terme un filtratge, però suposa un cost extra elevat que no volen assumir sense una amenaça legal al darrere. Quan a Facebook se li cola una decapitació i la veuen 3.000 menors d’edat s’exposa a una sanció, però pel que fa a quantitat d’imatges falses menys controvertides i impactants, ningú els fa retre comptes”, opina Casacuberta, per qui la recepta òptima passa per un doble filtre automàtic i humà: “Primer hauria de ser la IA qui fos ensinistrada en reconèixer fotos fake. Aquest sistema, ben fet, és bastant bo. I, un cop superat, hi ha d’haver l’humà que s’ho miri i interpreti els casos on pot haver-hi un dubte”.

El blockchain, com a garantia de veracitat

L’arrel del fenomen és l’impuls humà de crear i difondre aquest material i, en molts casos, la impunitat amb què es practica. Segons el professor de Ciències de la Comunicació de la UOC, i expert en disseny de sistemes d'informació i continguts, Pablo Lara, la tecnologia de cadena de blocs seria una solució que actuaria com a factor dissuasiu per a molts usuaris. En primer lloc, perquè identificaria qui hi ha al darrere de cada compte a les xarxes i, després, perquè podria discernir si una imatge ha patit alguna mena de modificació. “El sistema de validació d’usuaris a través del blockchain aconseguiria que es pogués saber la identitat real d’un perfil a Twitter, per exemple. Tothom podria seguir tenint comptes principals i secundaris, i no caldria que formalment aparegués amb el seu nom de debò, però en el cas que publiqués algun contingut sospitós o fraudulent, es podria perseguir judicialment la persona en qüestió”.

En altres paraules, els “alertadors” que proliferen a les xarxes tindrien un segell identificatiu per opinar i compartir continguts “de temàtiques específiques i sensibles, com poden ser conflictes o accidents”, amb l’obligació de respondre davant la llei si es donés el cas. Per Lara, això faria minvar la quantitat de fake news de tota mena, ja que canviaria la conducta dels internautes, “però no les faria desaparèixer del tot”.

Pablo Lara (UOC): “La validació d’usuaris a través de ‘blockchain’ permetria rastrejar la identitat real d’un perfil a les xarxes en cas que publiqués un contingut fraudulent”

Una mesura complementària hauria de ser l’obligació de “publicar la geolocalització i les metadades de cada fotografia o vídeo que es pengés”, per tal que fos fàcilment traçable, un cop més, a través de la blockchain. “Així es podria discernir si es tracta de l'original, si ha sofert alguna mena de retoc o està generada amb intel·ligència artificial”, explica Lara, qui creu que manca voluntat de les companyies i, sobretot, política, per implementar aquestes mesures. “L’alegalitat en l’entorn de les xarxes socials se'ls n'ha anat de les mans als governs. Els països haurien de fer saber les corporacions propietàries d’aquestes plataformes que, si volen operar al seu territori, han d’aplicar el blockchain a l’activitat dels seus usuaris.”

La Llei de Serveis Digitals aprovada fa pocs mesos podria ser un pas endavant en aquest sentit, “a condició que hi hagi sancions econòmiques importants en cas d’incompliment”, recalca Lara, que és partidari que a les xarxes hi hagi llibertat per posar-hi continguts de tota mena, amb el matís que sempre se’n conegui l’autoria: “Cadascú es faria responsable de què redifon, i les xarxes, en última instància haurien d’advertir dels materials que poden ferir la sensibilitat, i que sigui l’usuari qui decideixi si vol veure tal o tal altra imatge, no pas que se la trobi sense més ni més, i sense saber si és falsa”.