Europa fixa els límits (segurs) de la intel·ligència artificial
La Comissió Europea vol posar els drets de la ciutadania per davant de la tecnologia amb un reglament que fixarà les obligacions i responsabilitats de les empreses que usin dades i algoritmes
Categories:
Europa vol evitar que la intel·ligència artificial (IA) tingui un efecte perjudicial sobre les persones. La Unió Europea treballa en un reglament per posar límits“segurs” a una tecnologia emergent que s’ha postulat com el possible substitut de la mà humana, però també com un perill per a la privacitat en els drets de la ciutadania. Per això el Vell Continent pretén ser pioner en la creació del primer marc jurídic per a la IA; o, com afirmava la vicepresidenta de la CE, Margrethe Vestager, les bases per “convertir Europa en el centre mundial d’una IA digna de confiança”.
El control exercit per part de la Xina amb el sistema per mesurar el valor social de les persones és un dels exemples més flagrants que les autoritats comunitàries volen evitar en les seves fronteres. El govern del país va decidir atorgar una puntuació als ciutadans segons l’estil de vida, civisme, multes de trànsit o compres a internet per tenir un tracte preferent amb l’Administració. Tot i que pugui semblar surrealista arribar a aquest extrem a casa nostra, la UE ha deixat clar que cal marcar fronteres. Amb la proposta feta, encara inicial i amb la previsió de ser sotmesa a votació, “la jurisdicció intervindrà quan estiguin en joc la seguretat i els drets fonamentals”, assenyalava Vestager.
Categories segons el risc
En aquesta primera versió de la normativa, la CE ha designat fins a tres categories amb una regulació diferent en funció del risc que suposen per a la ciutadania.
La que més preocupa és que etiqueten com a “inacceptable”, on s’inclouen activitats que suposin una amenaça per a la seguretat, els mitjans de vida i els drets de les persones. Per aclarir el context que especifiquen, l’organisme comunitari posa com a exemple l’ús de sistemes que manipulin el comportament humà, com pot ser una joguina amb un assistent de veu que fomenti un comportament perillós. Aquí també quedaria inclosa la puntuació social imposada per la Xina i qualsevol altra proposta governamental que sobrepassi els drets bàsics.
El següent nivell es considera de “risc alt” i fa referència a eines que tinguin influència sobre àrees com la salut, l’educació i altres serveis bàsics. En aquest cas, estaríem parlant de solucions tecnològiques usades en cirurgies mèdiques o reclutament de personal. Les empreses que intervinguin en aquestes àrees hauran d’assumir de ser transparents davant les reclamacions de les autoritats que requereixin fer un seguiment de l’activitat. Això inclou una anàlisi del risc de resultats, documentació detallada, supervisió humana i presentar un alt nivell de robustesa.
La CE ha fixat quatre categories amb normativa diferent segons el risc i amenaça que genera cada activitat en els drets de la ciutadania
En aquest nivell es troba el reconeixement facial, el qual queda prohibit en espais públics amb fins policials. Ara bé, el reglament inclourà excepcions com poden ser la prevenció d’amenaces terroristes, o bé detectar, localitzar, identificar o enjudiciar un sospitós o autor de delicte greu i caldrà tenir una autorització prèvia emesa per un òrgan competent. Uns límits que l’organització European Digital Rights (EDRi) veu insuficients: “Molts dels usos amb més danys no estan prohibits, com la vigilància policial predictiva, els usos per al control de la migració, la categorització biomètrica de la raça, gènere, sexualitat i també la vigilància dels treballadors”.
En la categoria de “risc limitat” s’inclouen eines com els xatbots on només serà necessari avisar prèviament a l’usuari de les conseqüències de la interacció amb la tecnologia, mentre que en la categoria de “risc mínim” podem trobar-hi videojocs, aplicacions d’imatge i altres sistemes d’intel·ligència artificial que no suposen una amenaça.
Com han d’actuar les empreses?
La CE ha fet ara un primer pas de redactar el reglament que haurà de regir la IA a Europa, però caldrà la seva aprovació i fixar una data a partir de la qual entrarà en vigor. Tanmateix, les empreses tindran una moratòria per adaptar-se a la nova legislació, per la qual cosa, el procés serà lent.
L’anterior llei, segons apunta l’expert en intel·ligència de negoci i big data, i professor de la UOC, Josep Curto, “tractava la responsabilitat de les empreses que treballen amb dades, la secularització i els drets dels ciutadans, però deixava de banda l’impacte dels algoritmes”. Ara es busca anar una passa més enllà i posar límits a una disciplina que creix a un ritme vertiginós sense coneixement ple de les conseqüències. I és que no és el mateix emmagatzemar dades que treballar amb algoritmes. L’expert alerta que la segona disciplina és més complexa: “Hem de ser capaços de monitorar, avaluar i saber què fan els sistemes d’IA per extreure patrons i bocins de la informació rellevant que té el data”. És a dir, una companyia ha de poder explicar quin impacte i riscos té l’activitat que genera amb la informació del seu client o del ciutadà. “Una obligatorietat positiva perquè regularà possibles usos abusius i ajudarà la societat a entendre què significa tot això”, afirma Curto.
Les empreses hauran de poder explicar com i per què han recollit les dades, com les han treballat i com funcionen els seus algoritmes
En el temps que la CE consideri prudencial per a les organitzacions per adaptar-se, algunes tindran ja mig camí fet. Bona part de les que ja usen la intel·ligència artificial com a base del seu negoci tenen integrada la praxi que marca la normativa, però també són moltes altres les que hauran de fer un canvi de xip. Actualment, la dinàmica de moltes companyies és recollir el màxim de dades possibles. “Potser no es fan servir totes o has comparat 50 models i te’n quedes només un, però has de poder explicar per què has necessitat tota aquesta informació i guardar tots els atributs per poder usar els algoritmes”, explica Curto.
I no es tracta només dels que construeixen de zero la tecnologia, sinó que el reglament també inclourà les que adquireixen software de terceres persones. En aquest cas, el docent de la UOC assenyala que les empreses petites “hauran de formar-se i assumir responsabilitats al proveïdor per proporcionar la monitoratge i transparència necessària en cas d’auditoria”.
Protegir i empoderar el ciutadà
La intel·ligència artificial és un desconegut per bona part de la societat i cal fer pedagogia per donar a entendre que l’ús de la tecnologia comporta riscos que cal conèixer i reconèixer. Això és “un procés llarg”, alerta l’expert, “s’ha de fer entendre com les noves eines canvien la societat i com la regulació vetlla perquè siguin segures, millors i no generin desigualtats”.
Curto: “S’ha de fer entendre com les noves eines canvien la societat i com la regulació vetlla perquè siguin segures"
El cas de Facebook és un exemple que Curto utilitza per il·lustrar la situació: “S’ha transformat en un mecanisme de desinformació i manipulació, tot i que l’objectiu original era el de permetre’t la comunicació amb altres persones. La necessitat posterior de fer diners sense cobrar l’usuari l’ha fet derivar cap a pràctiques que, des del punt de vista legal, no estaven regulades; i des de la banda ètica, podrien haver estat vetades i no ho han estat”. Sense ànim de criminalitzar les grans plataformes, Netflix es pot prendre com un cas de bona praxi. “Ha anat canviant la seva interfície de mica en mica i ha explicat en tot moment com usa les dades”, concreta l’especialista, “ajudarà molt tenir una capa d’interacció amb l’usuari on ell consumeixi els resultats com vulgui i entengui perquè passa cada cosa”.
Al final, l’objectiu d’Europa és vetllar pels drets dels seus ciutadans. Alhora que posa límits al negoci de les empreses, els ha de donar la mà per mostrar total transparència cap al seu usuari i ajudar-lo a comprendre l’impacte de la tecnologia en el seu dia a dia.