Barricades digitals contra la IA generativa
Eines com Glaze o Nightshade triomfen entre artistes per protegir les seves obres del raspatge massiu dels algoritmes, però la seva efectivitat és qüestionada per acadèmics
Categories:
Portades i il·lustracions de llibres, cartells, veus per a anuncis i doblatges, traduccions, articles divulgatius i acadèmics, escenes per a pel·lícules… Tots aquests camps creatius ja han experimentat, amb major o menor intensitat, com la intel·ligència artificial generativa proposa alternatives als treballs artesanals. Algunes empreses ja han optat per aquesta classe de solucions en comptes de recórrer a professionals artístics, cosa que comença a impactar en la butxaca del sector. “Hi ha dades d’acomiadaments, però que no tenen en compte els autònoms, a qui el treball ens arriba per diverses fonts. Si et substitueixen per allà, no hi ha miraments”, denuncia un membre del Sindicat d'espectacles, arts gràfiques, audiovisuals i paper (SEGAP) de Barcelona que prefereix mantenir-se en l’anonimat. És per aquesta raó que, emulant el luddisme del segle XIX, part del col·lectiu d’artistes ha començat a organitzar-se i a fer servir eines que tracten d’alentir, obstaculitzar i redirigir l’evolució creativa d’aquesta tecnologia. O, si més no, augmentar les defenses pròpies per garantir la supervivència: unes vertaderes barricades digitals per frenar OpenAI, Midjourney, Stable AI i companyia.
L’alarma del sector neix per una acumulació de motius. “La irrupció de la IA generativa conforma una seqüència de fets lesius contra la societat en el seu conjunt, sobre el dret a la preservació de la identitat, el dret a la propietat intel·lectual i a la sana competència laboral”, reivindica la membre del col·lectiu d’artistes Arte es Ética Naida Jazmin Ochoa. Entre les conseqüències que suposa, enumera la substitució d’autors, la usurpació d’identitats i la competència deslleial, totes elles basades en un ús il·lícit, denunciat repetidament, d’obres d’artistes protegides per drets d’autor per entrenar els algoritmes. Un fet que les companyies no amaguen: la mateixa OpenAI ha admès públicament que hauria estat “impossible” crear ChatGPT sense fer servir continguts amb copyright. Segons Ochoa, aquesta situació “empobreix la vida artística i cultural de tota la societat”, ja que “desincentiva el desenvolupament i difusió de noves obres originals que, en exposar-se o donar-se a conèixer en qualsevol suport, són virtualment vulnerables a noves apropiacions automatitzades”.
Davant d’aquest context, i de l’assumpció de la membre d’Arte es Ética que “no hi ha llocs segurs a internet”, el sector artístic ha anat preparant diverses eines defensives. Una d’elles és Have I Been Trained?, un portal que permet cercar si les nostres creacions formen part d’alguna de les bases de dades públiques que es fan servir per entrenar aquests models generatius. La web consta d’un cercador, al qual se li pot escriure un domini web o bé pujar una imatge. En cas que l’eina detecti que el nostre art té presència en algun d’aquests llistats, ens dona l’opció d’entrar a formar part del registre Do Not Train, amb el qual l’artista expressa explícitament que no dona consentiment perquè les seves creacions s’usin amb aquestes finalitats. Això no aconsegueix retirar-les de models que ja les hagin fet servir, però sí excloure-les d’aquests registres.
Have I Been Trained? permet cercar si un domini o una imatge forma part d'alguna de les bases de dades públiques més populars per entrenar xarxes neuronals
Darrere de Have I Been Trained? hi ha Spawning AI, una empresa que vol ocupar el lloc d’intermediària entre artistes humans i companyies d’intel·ligència artificial, creant eines per donar més força de negociació als primers i facilitant la conversa a les segones. L’entitat treballa amb Shutterstock, ArtStation, Hugging Face i Stability AI, i també ha desenvolupat Kudurru, una API que bloqueja en temps real els scrappers d’IA de les pàgines web, i Source.plus, una plataforma per accedir a conjunts de dades per entrenar IA amb el consentiment dels autors.
Glaze i Nightshade, cuirassa i verí
L’eina que probablement ha acumulat més popularitat per enfrontar-se a l’embat de la IA generativa és Glaze, un programari creat per investigadors de la Universitat de Chicago que assegura ser capaç de protegir els artistes contra la mimesi d’estil, és a dir, la reproducció deliberada de l’estètica i particularitats d’un artista determinat. El que fa aquesta eina és introduir una sèrie de canvis visuals a la imatge que no són perceptibles a simple vista, però que fan que les IA no siguin capaces de reconèixer l’estil. El programari ha tingut un gran reconeixement internacional: va ser seleccionat per la revista TIME com un dels 200 millors invents de 2023 i els tres caps del projecte, Jenna Cryan, Shawn Shan i Emily Wenger, van ser seleccionats per Forbes al llistat 30 under 30 - Consumer Tecnology de 2024. “Glaze
representa la voluntat d’un grup de científics de donar suport i ajudar un sector extremadament castigat com és el sector artístic”, assegura Ochoa.
Glaze incorpora modificacions no perceptibles a l'ull humà a les obres dels artistes per combatre la mimesi d'estil de les IA generatives
A més a més de Glaze, l’equip també ha desenvolupat Nightshade, una eina que es defineix com un verí contra els models generatius. Tot i que el procediment és similar (incorporar elements no perceptibles per l’ull humà, però sí per la màquina), l’objectiu és diferent: no protegeix contra la mimesi d’estil, sinó que “mentre que l’ull humà veu una imatge enfosquida sense grans canvis respecte a l’original, el model d’IA veu una composició d’imatge dramàticament diferent”, asseguren els seus creadors, els quals deixen clar que l’objectiu no és “trencar” aquests models, sinó “incrementar el cost d’entrenaments basats en dades no llicenciades”.
Totes dues eines han guanyat popularitat i reconeixement dins del col·lectiu d’artistes, fins al punt d’integrar-se en altres solucions que comparteixen objectius. Una d’elles és Cara, un híbrid entre xarxa social (molt influenciada per X) i portafolis que busca atorgar als artistes visuals un espai segur on mostrar les seves obres sense el temor que puguin ser aprofitades per empreses tecnològiques. Per aconseguir-ho, la plataforma ofereix a tots els artistes que hi pengin obres aplicar una capa de Glaze de manera automàtica. A més, el lloc web també incorpora un filtre que no permet publicar-hi continguts creats amb intel·ligència artificial.
Falsa sensació de seguretat?
El funcionament de Glaze es basa en el que es coneix com a adversarial examples, una tècnica que consisteix a afegir petites pertorbacions en una entrada d’informació per provocar falses prediccions en un model d’aprenentatge automàtic. Popularitzats fa més d’un lustre, l’acadèmia ha publicat múltiples investigacions en què es titlla aquestes tècniques d’ineficaces, les mateixes que ara han estat replicades a Glaze i altres eines amb una funció similar, com Mist o Anti-DreamBooth. “Totes les tècniques que estan fent servir per a aquestes defenses són exactament igual que aquelles tècniques que es van proposar fa cinc anys i que s’ha demostrat, una vegada i una altra, que no funcionen”, denuncia el doctorand en ciència de computació de l’Escola Politècnica Federal de Zúric (ETH Zürich) Javier Rando, qui juntament amb els investigadors Robert Hönig, Nicholas Carlini i Florian Tramèr ha publicat un article acadèmic en què demostren aquesta afirmació.
Amb la intenció d’avaluar la seguretat d’aquestes eines, els investigadors es van posar en contacte amb els creadors de Glaze per demanar-los el codi de l’aplicació, però aquests es van negar a cedir-los-el, així que van simular el comportament d’un atacant. “El primer que vam trobar és que no érem capaços de reproduir els seus resultats. Després de protegir amb les màximes proteccions l’art d’alguns artistes del paper original i entrenar una xarxa neuronal amb ella, l’entrenament va ser satisfactori. És a dir, la protecció no havia fet completament res”, explica Rando. Després d’entablar una nova conversa amb els impulsors de Glaze, van arribar a la conclusió que el model només era capaç de protegir obres contra un tipus de codi específic d’entrenament de xarxa neuronal, però no amb qualsevol altre dels codis públics més populars. “Quan tu crees un mecanisme de defensa, com fa Glaze, hauria de funcionar per a tots els artistes. O, almenys, hauries de poder dir-li si la seva protecció funciona pel seu art o no. Si no és així, estàs donant una falsa sensació de seguretat”, critica l’investigador de l’ETH Zürich.
Rando: “Quan tu crees un mecanisme de defensa, com fa Glaze, hauria de funcionar per a tots els artistes. O, almenys, hauries de poder dir-li si la seva protecció funciona pel seu art o no. Si no és així, estàs donant una falsa sensació de seguretat”
Superat aquest entrebanc, l’equip de recerca va analitzar les tres eines (Glaze, Mist i Anti-DreamBooth) a través de diferents proves ja usades per demostrar la ineficàcia dels adversarial examples, i van descobrir que la que millors resultats donava era la més senzilla: afegir soroll a una imatge i ampliar-ne la resolució. “Quan fas això, en el procés d’augmentar la resolució, el model elimina les pertorbacions incloses per les proteccions. És un procediment molt senzill, de preprocessament, que no requereix cap mena de coneixement tècnic i que qualsevol persona pot fer-ho servir. I això trenca la majoria de les proteccions”, assegura el coautor de l’article. L’estudi es va fer amb obres de 10 artistes diferents i, comparant els resultats, els investigadors no han estat capaços d’identificar un patró que expliqui quina classe d’obres tenen més oportunitats de quedar ben protegides. “En la resposta de Glaze al nostre paper, diuen que el nostre mètode no funciona per a artistes que fan dibuixos d’estil cartoon amb fons molt llisos i colors molt plans. Quan ens van fer aquesta resposta, vam fer proves amb artistes amb aquestes propietats i vam veure que no era veritat. Les tècniques i proteccions funcionen igual”, afegeix.
Rando és bastant pessimista sobre la possibilitat que eines com Glaze, que busquin sabotejar el funcionament dels models generatius, però fent servir altres tècniques, puguin reeixir en el futur: “Hem de saber entendre que el problema no serà que OpenAI entreni el seu model generalista amb les nostres imatges, sinó que algú amb males intencions agafi les nostres imatges i les faci servir per entrenar un model específic. Aquí és on rau realment el problema, i per això, ara mateix, no tenim una solució. Tècnicament, crec que no existirà mai”. Des d’Arte es Ética consideren que existeix una “molt intensa campanya de desprestigi contra Glaze i Nightshade i una notable i ‘curiosa’ intencionalitat en desestimar el seu ús”, i es mostren tranquils perquè l’equip a càrrec “no descansa per contrarrestar cadascun d’aquests atacs i per brindar millores a les seves eines i possiblement llançar-ne de noves”. De fet, en la resposta a l’article de l’ETH Zürich, els autors de Glaze comparen la seva eina a un antivirus, al·legant que l’aniran actualitzant per cobrir les noves versions dels models. Tanmateix, Rando considera que és un símil “poc encertat”: “A internet tot es queda. Quan un artista puja una imatge amb una protecció, quan surti un atac que la trenqui, aquell art ja es quedarà en línia per sempre, sigui perquè l’atacant ja l’ha descarregat, sigui perquè es queda als arxius d’internet, sigui perquè algú les ha difós… No pots actualitzar-ho de manera retroactiva, cosa que sí que pots fer amb un antivirus”. “El paradigma de proposar defenses estarà trencat de per si i pels canvis dels models. I hauríem de ser conscients d’això. Hi ha artistes pels qui és una bona opció, que prefereixen això a res. El que creiem que és un problema és si algú confia cegament en això. Si tu no vols que el teu art sigui copiat, no el pengis en línia”, sentencia l’investigador.
Reivindicar les obres humanes
Davant dels obstacles que suposa frenar l’avanç de les obres generades artificialment des del vessant tècnic, algunes iniciatives han optat per fer-ho des del vessant social, reivindicant i fent valdre les obres d’autoria humana. En aquest àmbit entra la ja mencionada Cara, però també l’empresa catalanocordovesa By Humans. Fundada per l’analista de dades Martí Santiago i l’experta en Dret i Criminologia Lucía Polinario, la companyia ha creat una marca de certificació registrada que assegura, a base d’auditories, que les obres acreditades no han fet servir cap classe d’intel·ligència artificial en el seu procés. “La primera condició que han de complir, que ens vam fixar per temes ètics, és que ha d’haver estat sis mesos sense fer servir IA. No ens volíem convertir en una empresa d’emblanquiment”, destaca Santiago.
Les empreses interessades a aconseguir el segell de By Humans han de passar per un extens procés en què s’analitza detingudament tota la informació disponible del client. “Comprovem xarxes socials, campanyes de màrqueting, web, publicitat… Tot allò que hi hagi públic abans del material que ells ens proporcionin”, assenyala Polinario. Una de les primeres proves és un cribatge amb dues imatges o textos escollits a l’atzar d’aquest material, el qual analitzen detalladament, tant de manera personal com a través d’eines especialitzades. A més a més d’aquesta documentació, By Humans duu a terme entrevistes amb els clients, en què es demanen tota mena de detalls del procés. “En el cas de l’escriptura, preguntem d’on ha sortit la idea, si té un esborrany o diverses versions, per què ha fet servir una paraula o una altra… Trobar una consistència en l’estil”, exemplifica l’experta en Dret i Criminologia.
By Humans atorga una certificació registrada a aquells productes i serveis dels quals puguin demostrar, després d'una anàlisi en profunditat, que no fan servir IA en cap fase de la seva creació
Amb la voluntat de ser el màxim de rigorosos, l’equip analitza totes i cadascuna de les eines que el client fa servir, que sovint inclouen elements d’IA sense que els sol·licitants en tinguin consciència: “Un cas curiós va ser el d’una productora de pòdcasts que volia diferenciar-se sobretot amb el tema de la veu, volien acreditar els professionals. Però quan vam anar a rascar, vam veure que per editar treballaven amb Adobe Podcast, i una de les seves funcions feia servir IA per millorar la veu amb l’eliminació de soroll i estabilitzacions”. Si després de tot el procés de comprovació es determina que el client és apte per dur la certificació, s’inicia el procés legal per concedir-lo, que ve acompanyat d’un contracte amb una sèrie de condicions: han de fer servir la certificació amb un codi de colors determinat, sense alterar la forma i únicament per a aquells productes o serveis analitzats. També es prohibeix explícitament cedir el segell a altres divisions o empreses del mateix grup, ja que aquesta s’ha expedit únicament pel producte o servei analitzat.
Autoprotecció i legalitat
Davant de la desprotecció actual, l’equip de By Humans coincideix amb Rando amb el fet que l’única mesura clarament efectiva per evitar la còpia és no penjar les obres a internet. Amb tot, Polinario recorda que sempre existeix el canal legal: “Una bona eina, tot i que no tothom té els mitjans, és protegir l’obra a l’Oficina Espanyola de Patents i Marques. Les taxes a Espanya, avui, no són tan elevades, sobre els 153 euros, però hauries de protegir l’estil si no vols protegir cada obra individualment. En el moment que ho fas, estàs blindat. Encara que algú faci servir-la, si ha obtingut rendiment, pots denunciar-ho i obtenir alguna classe d’indemnització”. Des d’Arte es Ética també recomanen diverses accions similars: incloure sempre la signatura amb els corresponents segells de copyright, acompanyar-los d’exempcions de responsabilitat (disclaimer) i de textos alternatius (alt text) en què s’especifiqui “que NO es permet l’ús de les nostres obres per a l’entrenament algorítmic de cap mena d’IA” i treballar sempre en format PDF quan s’enviïn correus electrònics per postular-se a ofertes de feina.
Més enllà de les accions individuals, els ulls estan ara posats a la nova Llei Europea d’Intel·ligència Artificial, que va entrar en vigor el passat 1 d’agost. Tot i que la normativa té un enfocament més centrat en els perills que aquesta tecnologia suposa per la privacitat i els drets democràtics de la ciutadania, la seva darrera versió para atenció als drets d’autor gràcies a la implicació de l’European Guild for Artificial Intelligence Regulation (EGAIR), organisme internacional amb qui ha col·laborat Arte es Ética. “La Llei d’IA a Europa és un primer pas cap a un mercat que respecti les persones el treball i art de les quals són crucials en el desenvolupament de models d’IA generativa”, valora Ochoa, tot i reconèixer que “la llei no és perfecta” i que “queda molt perquè es comencin a notar els resultats de la seva posada en marxa”. Mentrestant, el missatge de l’artista convida a la mobilització del sector: “Cal prendre consciència que la lluita col·lectiva mou més muntanyes que qualsevol regulació”.