Ariadna Font, creadora de l’àrea d’ètica de Twitter: “X és l’antítesi del que hauria de ser una xarxa social”

La cofundadora i CEO d’Alinia critica la falta d’atenció que la plataforma d’Elon Musk dedica a la moderació i convida les empreses a invertir en IA responsable abans d’escalar la tecnologia

Categories:

ACN

Elon Musk va acomiadar el 80% de l'àrea d'ètica, transparència i rendició de comptes de Twitter que dirigia la catalana Ariadna Font
Elon Musk va acomiadar el 80% de l'àrea d'ètica, transparència i rendició de comptes de Twitter que dirigia la catalana Ariadna Font | Marta Vidal (ACN)

Fins fa un any, la catalana Ariadna Font era la cap de l’àrea d’ètica dels algoritmes de Twitter (ara, X), però l’arribada d’Elon Musk a l’empresa va posar punt final al departament. Ara, la consellera delegada i cofundadora d’Alinia alerta sobre els perills que ha suposat aquest canvi: “És l'antítesi, la xarxa social en la part més fosca, un campi qui pugui on tothom pot dir la seva de manera denigrant sense que ningú ho controli”. Així s’ha expressat la professional en una entrevista amb l’ACN en la seva visita a la ciutat comtal per participar al Barcelona Deep Tech Summit, on ha explicat la seva experiència de més de 20 anys en empreses tecnològiques.

Dos dies després de comprar Twitter, Musk va anunciar que faria fora la meitat de la plantilla i canvis radicals en la plataforma. L'organització d'ètica, transparència i rendició de comptes que presidia Font, anomenada META, va patir més acomiadaments que la mitjana i fins al 80% dels empleats van perdre la feina. Les intencions de Musk eren clares i Font assegura que “no tenia cap intenció de quedar-se” i va “estar encantada” de ser una de les acomiadades. En la seva etapa a Twitter va contribuir a establir la IA Responsable com un dels principals objectius de la plataforma, on s’encarregava de detectar i treure abusos de la xarxa. “Ara no hi ha ningú a Twitter que ho faci, abans teníem una organització gran, uns objectius i unes mètriques que miràvem molt regularment, ara no hi ha res d'això”, ha explicat.

Els biaixos dels algoritmes

L'experta en intel·ligència artificial ha fet una crida a les empreses a invertir per crear un “marc ètic de governança” que inclogui tota l'organització i dedicar-hi temps i diners per “mitigar els riscos abans que es converteixin en crisis”. Per exemple, ha detallat com durant la seva etapa com a dirigent de l'àrea d'ètica de la plataforma es va detectar que l'algoritme que retallava la imatge automàticament tendia a enfocar les persones blanques i no a les negres. Aquesta discriminació es va generar perquè l'algoritme havia “amplificat un biaix humà” després de ser entrenat amb milers de dades humans sobre on dipositem primer la mirada. “Si la major part de la població mira primer a la persona blanca, l'algoritme diu que això és l'important. L'algoritme no té cap intenció, però les dades són esbiaixades i les amplifica”, ha detallat, tot recordant la importància de prevenir situacions així i de solucionar-les un cop es donin.

Els riscos no afecten només les xarxes socials, sinó a tota mena d'aplicacions entrenades amb dades, com ara plataformes com ChatGPT, que fa gairebé un any que es va llançar al mercat en fase experimental. Segons assegura, hi ha “molts riscos” a l'hora d'utilitzar el xatbot d’OpenAI, com ara les “al·lucinacions” que provoca quan “dona informacions de manera molt convincent però totalment inventada”, així com la vulneració de la privacitat. “A més, pot contestar coses que no són ètiques com ara: ‘Com puc matar tot un país?’, és una pregunta que no és ètica, però el sistema en si no ho sap i et pot contestar perfectament”, explica l'experta, que afegeix que hi ha tècniques per “alinear aquestes tecnologies amb els valors humans” que són les que s'haurien de potenciar. En aquest sentit, Font ha fet una crida a apostar per invertir des d'un inici en la intel·ligència artificial responsable “abans d'escalar la tecnologia per assegurar-te que no hi ha biaixos no intencionats”.