“Pots tenir la millor IA del món, però si la interfície no està ben dissenyada, deixaràs gent fora”
Karina Gibert Directora del centre de recerca Intelligent Data Science & Artificial Intelligence (IDEAI – UPC)
Categories:
“La intel·ligència artificial és una palanca de canvi poderosíssima per transformar la societat cap a millor, cap a una societat més justa i ecològica, però només si ho fem amb un desplegament ètic”. Aquesta podria ser la resposta a gran part dels dubtes i debats que s’estan generant avui dia al voltant dels algoritmes, i és també l’argument més ferm de la directora del centre de recerca Intelligent Data Science & Artificial Intelligence (IDEAI – UPC), Karina Gibert. L’experta considera que tant la indústria com les administracions públiques estan fent esforços per oferir solucions sostenibles i sense biaixos, però demana més consciència col·lectiva i més programes que dotin la ciutadania de coneixements per anar cap a la societat digital que s’espera que sigui. Recollim tota la seva visió en aquesta entrevista elaborada pel Cercle Tecnològic en el marc de la recerca del Baròmetre del sector tecnològic 2024.
Quins són els principals desafiaments socials i ètics que planteja l'evolució de noves tecnologies com la IA?
La intel·ligència artificial és una de les tecnologies disruptives que estan pilotant la transformació digital en aquest moment. Ens estem movent des de la societat postindustrial a una cosa nova que les Nacions Unides va decidir anomenar societat digital, i que s'està estructurant pràcticament des del 2018. El principal desafiament que planteja la IA és justament saber quin és el rol que nosaltres com a societat li volem dedicar en aquesta eina. És una eina molt poderosa que, bàsicament, té la virtut de desvelar els secrets dels sistemes més complexos i que ens pot ensenyar per què passen moltes coses que encara no entenem o com podem anticipar problemes que en aquest moment no sabem anticipar. I el principal repte que tenim és fer aquests usos sense que incorrem en riscos de vulneració de drets fonamentals o d'increment de desigualtats socials.
Quins són els principals reptes pel que fa a l’ús de les dades?
Hi ha una part de la intel·ligència artificial que es basa en la ingesta i digestió de dades tan precises com sigui possible, sobre persones, empreses, individus... busca l'extracció de patrons a partir d'aquestes dades i la construcció de models predictius. Aleshores, hi ha un primer repte important que és d'on surten aquestes dades i si aquesta intel·ligència artificial està utilitzant dades equilibrades que representin bé el món de manera que després els algoritmes funcionin de forma equilibrada. Per tant, aquí estaríem apel·lant a un dret d'igualtat. Però després, tenim la línia d'on surten aquestes dades, com s'ho ha fet aquesta intel·ligència artificial per accedir a aquestes dades. I aquí estaríem entrant en el dret a la privacitat, a la intimitat i a totes aquestes altres dimensions dels drets humans. Així, per una banda, hi hauria les igualtats d'oportunitats, les igualtats de tractament, les igualtats d'accés, els drets d'accés, i, per una altra banda, hi hauria tot el que és el tema de la privacitat. Serien els més importants.
"Això no és una cosa nova, el concepte de biaix es defineix en el segle XX en l'àmbit de l'estadística"
Quines estratègies s’haurien d'implementar per assegurar que els avanços no generen escletxes?
Aquí parlem de l'impacte de la transformació digital sobre l'escletxa digital, i això no és un problema de la IA, és un problema que té a veure amb com dissenyem les eines digitals i, sobretot, amb la interfície d'aquestes eines. Nosaltres durant la pandèmia vam tenir un projecte molt crític, que ens van encarregar Serveis Socials, i que consistia a intentar anticipar-nos a l'emergència social que derivaria del confinament de la primera onada de la covid-19. En aquell moment, en què no hi havia dades per aprendre, vam haver d'anar a buscar dades fresques de la ciutadania sobre el moment. Vam dissenyar com uns qüestionaris que mesuraven la vulnerabilitat social i que vam distribuir per tot Catalunya. Ens va sortir que el 50% de les persones havia necessitat prestacions econòmiques i socials durant la pandèmia. I al juliol d'aquell any, just després del confinament, un 70% d'aquestes persones no ho havien sabut tramitar. Per tant, aquí no és un problema de la IA. Es van dissenyar uns ajuts sobre la marxa i d'emergència. Com que tot estava tancat, es va fer una aplicació informàtica perquè la gent pogués tramitar-ho des de casa, però potser la interacció d'aquella eina no era molt clara. En condicions normals, hauríem de tenir sempre enginyers de front-end a tots els projectes informàtics perquè facin un disseny inclusiu i s'assegurin que totes les interaccions que tenen les eines digitals estiguin perfectament alineades amb què una persona que no hi entén res, navegui bé i no es perdi en el procés d'interactuar amb aquella administració. I això, malauradament, és una cosa que s'ha oblidat. Pots tenir la millor IA del món, que si la interfície no està ben dissenyada, deixaràs gent fora.
Quin considera que hauria de ser el procés òptim per a la difusió del coneixement sobre noves tecnologies?
Una cosa que sembla bàsica i que no fem quan es dissenya una eina digital és posar un botó per enviar millores, suggeriments o que els usuaris escriguin el que creguin. I no costaria res que hi hagués algú rebent tots els entrebancs que s'han trobat els usuaris. És veritat que hi ha alguna empresa privada molt específica amb un negoci molt concret que té tot un departament de user experience per cobrir això, però no és una àrea que sigui atesa amb la importància que representa. Nosaltres no podem dissenyar tecnologia que s'hagi d'aprendre a fer-la servir, ha de ser prou intuïtiva, i penso que, al final, és la combinació de les dues coses. En el desenvolupament de la intel·ligència artificial, patim de dos defectes molt grans, sobretot a l'àrea privada, que és que s'inverteix molt poc en aquestes interfícies i s'inverteix molt menys del que caldria a la validació dels models d'intel·ligència artificial. Com que no es valida adequadament, et pots trobar que surt un model al mercat i després de 10 mesos s’ha de retirar perquè estàs esbiaixat. Pel fet que és un sector no regulat, hem agafat una mica aquesta tècnica de treure-ho i si no funciona, ja s’arreglarà. No es té en compte que quan no funciona, segons de què estem parlant, el dany és irreversible.
Quin és el dilema ètic més significatiu i potencialment perillós que planteja l'ús de la IA?
Aquí hi ha dos temes. Un és que nosaltres no hauríem d'imaginar-nos la IA com una cosa que fan només els experts en IA, sinó que hauríem d'anar treballant la idea d'equips multidisciplinaris, on hi ha l'enginyer de back-end, el de front-end, el de dades... cadascú sap del seu i fa les coses com toca. L’altra idea és que de vegades tenim eines d'intel·ligència artificial que s'entrenen, amb unes dades històriques que poden ser molt grans, i que després poses a funcionar i no encerten, i estàs esbiaixada. De biaixos en tenim de moltes classes, un dels més escandalosos és el biaix de gènere, però n'hi ha d'altres. Jo em debato entre qualificar-ho directament de mala praxi o de frivolitat. Per què? Perquè nosaltres, en l'àmbit científic, tenim una disciplina que s'ocupa de les dades des de fa molts més anys que la intel·ligència artificial, que és l'estadística, que en el seu moment ja va tenir aquest problema. Això no és una cosa nova, el concepte de biaix es defineix en el segle XX en l'àmbit de l'estadística, i té una formulació matemàtica molt concreta. I el resultat d'això va ser el desenvolupament d'una àrea de recerca que es diu la teoria del mostreig i disseny d'experiments, que només tenen un propòsit: assegurar que les dades que alimentaran el model estadístic representen bé el món. Això s'ha ignorat completament des de l'àmbit del machine learning. El machine learning és la part de la intel·ligència artificial que consumeix dades, neix als anys 80, bastant més tard que l'estadística, i decideix que entrena amb dades històriques sense fer cap anàlisi de res. A ningú que sàpiga una mica de dades li estranya que si tu agafes el primer que passa per davant teu amb una pàgina web i poses entrant en un model, no funcionarà. Que tinguis big data no és cap garantia que estiguis representat millor el món. I això no es fa posant més dades, es fa dissenyant la mostra d'entrenament. Aquí tenim una mena de manca de diàleg entre disciplines que ja han resolt aquest problema i tenen tecnologia per fer-ho des de fa molts anys.
"Necessitem formar ciutadans digitals de la societat digital del futur que es maneguin còmodament enmig de les eines digitals"
Qui hauria de ser responsable dels biaixos: les empreses desenvolupadores o les entitats que ho regulen?
Tenim un problema de responsabilitat compartida i no s'escapa ningú. Primer, els governs tenen la responsabilitat de crear els instruments per assegurar que una IA que no està en condicions no circuli. Segon, els professionals han de tenir suficient deontologia i sentit ètic per no permetre que entreguin coses que no estan prou provades. Les empreses han de començar a respectar que el time to market no pot estar per sobre de la validesa d'un producte. I tercer, els ciutadans han de començar a aprendre a tenir esperit crític. Davant de dues eines gratis que es troben a la butxaca i que totes dues corregeixen fotos, han de consumir aquella que sigui més ètica. Hem de tenir criteris, com a ciutadans no podem anar fent el primer que ens diu no sé qui, hem de saber valorar l'impacte a llarg termini. Fa temps que lluitem perquè des de primària ja es comencin a introduir que donen base cultural i digital. No necessitem que tothom sigui enginyer, però sí que necessitem formar ciutadans digitals de la societat digital del futur que es maneguin còmodament enmig de les eines digitals, de la mateixa manera que en el seu moment vam haver d'entrenar la societat a interactuar amb rentadores, amb forns... a la meva iaia no li van explicar res de les rentadores ni dels forns. A mi ja van ensenyar que, si vaig amb els peus descalços, no puc obrir la rentadora. Nosaltres ara tenim la responsabilitat de crear la nova generació de ciutadans digitals amb plenes competències i necessitem treballar aquests temes a escala de formació bàsica.
Quin és l’objectiu de l’IDEAI i com treballa?
Al centre de recerca generem metodologia. Els nostres projectes rarament són de portar al mercat una cosa que ens ve d'algú altre, sinó que hi ha el disseny amb nosaltres, la major part de les vegades. I, per tant, tenim molt present tot aquest marc ètic en el mateix disseny de les eines. És cert que pots dissenyar amb una concepció ètica i que després es desdibuixi al mercat. Aquí sí que nosaltres entrem i mirem de fer un acompanyament perquè no passi.
Com valora l'impacte que l'automatització pot tenir en els treballadors del sector TIC?
Tot l'escenari que estic dibuixant amb les meves respostes descansa en el principi de la comunitat europea que diu que la IA no pren decisions tota sola i que és difícil que puguis prescindir del professional perquè, al final, la IA l'hauríem de convertir en un assistent intel·ligent d'aquell professional. Per exemple, anem al metge i el metge té tres minuts per pacient. Si pot ser acompanyat d'una intel·ligència artificial que parla mentre visita el pacient i allò es transcriu directament, el metge guanyarà temps i el podrà dedicar a altres pacients. El problema està a la falda de les polítiques d'empresa, no és un tema de la IA. L'altre punt important és que això és un problema transitori. Si estem transitant de la societat del coneixement a la societat digital, segurament hi haurà feines que deixaran de fer-les les persones; i d’altres que ara no les fa ningú, hi caldrà una persona. Per tant, canviarà l'escenari de les professions i el perill està en el transitori. Aquí sí que és una cosa de governs, de polítiques, d'acompanyament de totes aquestes persones. Algunes les podrem formar i requalificar; unes altres, no. Aquí són molt importants les polítiques socials de protecció de... d'aquestes persones.
"Canviarà l'escenari de les professions i el perill està en el transitori"
Com s’hauria de gestionar la dicotomia entre economia i sostenibilitat que genera la IA?
La primera pregunta que ens hem de fer és: tota la IA del món necessita big data? Perquè això no és així. Fa 30 anys que donem al món solucions d’IA i moltes estan en àmbit comercial molt abans que existissin les dades massives. No tota la IA necessita big data. Si diem que no podem ser computacionalment poc ecològics per crear una eina per curar malalties que ara no sabem com es curen... no hem de ser avars ni tacanys. Benvingut sigui el Mare Nostrum i el BSC. Ara bé, si hem posat a disposició de 180 milions d’usuaris una eina que es diu ChatGPT que, probablement, s’utilitza per fer servir la felicitació de Nadal... Potser no cal, no? Està a les nostres mans gastar aquestes eines tan descomunals amb coses que no són rellevants o reservar-les per a aquelles que ens preocupen molt i que representen els reptes de la humanitat. Aquest és un debat molt rellevant i que ara tenim, perquè no és només parlar del big data processat, sinó del big data sense processar que no és sostenible. Fa cinc o sis anys, les dades eren la meitat del que tenim ara i ja es calculava l’energia necessària per mantenir els centres de dades. Es deia que era l’equivalent a dos milions i mig d’aerogeneradors instal·lats al món per fer-los funcionar amb energia neta. Estem anys llum de tenir-ho. Des de l'àmbit de l'enginyeria de les dades, necessitem anar a altres models de representació de les dades de manera que no anem guardant totes les observacions que fem. Necessitarem trobar noves formes de representar el big data que siguin més sostenibles.
Quins àmbits haurien de ser regulats per assegurar un ús ètic i un impacte positiu?
No hem de posar les expectatives sobre que la regulació europea d'IA acabarà amb els mals, perquè això no serà així. No en tindrem prou amb la regulació, necessitarem acompanyar aquesta regulació que servirà per sancionar el que es passa de la ratlla després que hagi fet la infracció, hem de parlar de prevenció. I això només s’aconsegueix treballant amb valors, de la mateixa manera que els metges no fan coses que no han de fer. Regular-ho tot ens portarà uns tempos que estaran desfasats, perquè per consolidar una regulació, necessites verificar un sistema de garanties que té uns tempos, i has de donar temps a tots els col·lectius de mirar-s'ho, estudiar, respondre, trobar vulneracions que es puguin debatre... i això no ho pots comprimir en el temps. La tecnologia creix a la velocitat la llum, i la llei es crea i es gesta a la velocitat dels mamuts. L'àmbit regulador és necessari, però no ens ho resoldrà tot. L'ètica va més enllà del que diu la regulació.