La URV alerta que no hi ha cap IA que garanteixi eliminar les dades personals si l’usuari ho demana
La solució més habitual, ara per ara, implica entrenar un nou model d’algoritmes sense les informacions de les quals es vol prescindir, un procés costós i ineficient
Categories:
Investigadors de la Universitat Rovira i Virgili (URV) ha estudiat l’efectivitat de les tècniques de desaprenentatge en models d’intel·ligència artificial (IA), un mètode que busca eliminar les dades personals, incorrectes o discriminatòries en models de llenguatge com ChatGPT, Mixtral, Bard o Copilot; entre d’altres. L’anàlisi ha conclòs que actualment no hi ha cap sistema que garanteixi un oblit total i irreversible, més enllà d’entrenar de nou un model sense les dades de les quals es vol prescindir, un procés costós i ineficient.
Aquest fet crea un conflicte amb el dret a l’oblit, cosa que recull la legislació europea i que obliga a eliminar les dades personals de les persones que així ho demanin. La solució a l’actual incompatibilitat implica dissenyar noves formes d’entrenar els models que facilitin el desaprenentatge amb garanties.
El rendiment dels models d’IA depèn de les dades amb què han estat entrenats i les companyies els alimenten amb tota la informació que poden, tan diversa com sigui possible, per fer-los més potents i millors que la competència. Així doncs, acostumen a disposar de milers de milions de paràmetres.
Des d’una perspectiva legislativa, existeix la Llei de propietat intel·lectual espanyola o el Reglament General de Protecció de Dades (RGPD) de la Unió Europea. Aquesta última, que regula el tractament de dades personals de qualsevol persona física de la UE, recull el dret a l’oblit. Així doncs, els gestors de la informació han de prescindir-ne si reben una petició d’eliminar les dades personals dels seus sistemes.
No obstant això, segons els investigadors, la manera com s’han configurat els models d’IA fa que eliminar dades específiques sigui un repte tècnic molt més complex del que podria semblar i passa per dues opcions. La primera, més rudimentària, implica suprimir tots els coneixements i entrenar el model de nou sense les dades de què es volen prescindir. L’altra, tracta de desaprendre i evita començar de nou cada vegada que cal eliminar informació, però es desconeix com funcionen aquests models i com es pot fer el procés eficient i precís.