El reconeixement facial posa contra les cordes la privacitat de les persones

La intel·ligència artificial s’aplica cada vegada de manera més estesa a la societat, però el seu potencial genera dubtes i provoca noves regulacions

Categories:

Marc Vilajosana

El reconeixement facial posa en dubte la legitimitat de la tecnologia, que pot afeblir la privacitat de les persones
El reconeixement facial posa en dubte la legitimitat de la tecnologia, que pot afeblir la privacitat de les persones | CC0

Les tecnologies de reconeixement facial basades en intel·ligència artificial avancen a passos de gegant. La seva practicitat i l’augment de la seva fiabilitat han estès el seu ús dins la societat, des de la seva implementació en aplicacions mòbil a utilitzar-se com a mètode de verificació d’identitat per accedir a esdeveniments, com és el cas del Mobile World Congress d’enguany. Amb tot, les possibles aplicacions d’aquests sistemes susciten dubtes i pors a la societat, que veu el “carnet del bon ciutadà” del govern xinès com una vulneració flagrant de la privacitat personal. “El que aquí veiem com una distopia de malson és una situació acceptada per la societat xinesa”, ha expressat la directora de l’Autoritat Catalana de Protecció de Dades (APDCAT), Maria Àngels Barbarà, en la presentació del debat organitzat al 4YFN sobre els riscos del reconeixement facial per a la societat.

Aplicació no forçada

“Les tecnologies de reconeixement facial són una eina útil, beneficiosa sempre que es respectin una sèrie de criteris”, ha opinat el director tècnic d’Herta Security, Carles Fernàndez. Per l’expert, aquestes solucions són una bona opció per a les empreses privades, sempre que “no sigui forçada a l’individu”, sinó presentada com una alternativa. D’altra banda, la seva aplicació en l’administració pública presenta més complicacions. “Hem d’assegurar criteris molt estrictes per garantir el seu ús. Proporcionalitat, transparència i sempre amb supervisió humana a través de la llei”, ha asseverat.

Levi: "Els drets humans no poden ser un dany col·lateral de la digitalització"

Menys convençuda s’ha mostrat Simona Levi, fundadora de la plataforma Xnet. Per a l’activista, “els drets humans no poden ser un dany col·lateral de la digitalització”, i el reconeixement facial, a través de la vigilància biomètrica massiva, “presenta molts problemes”. “La base de la democràcia ens assegura que som innocents davant la llei fins que es demostri el contrari. A Europa tenim experiències històriques com la Gestapo que demostren que l’ús massiu de dades va en contra d’aquest principi d’innocència”, ha apuntat Levi.

Creixement i problemes de biaix

El creixement en investigació i l’aplicació de les tecnologies de reconeixement facial són una de les claus que han accelerat aquest debat. “Ara mateix, les cares poden ser reconegudes encara que no siguin frontals, amb màscares, amb soroll d’imatge, amb il·luminacions estranyes, amb emocions molt intenses... Fa anys necessitaves condicions molt específiques, ara és molt més precisa”, ha explicat Fernàndez. Tot i això, l’expert deixa clar que el context i l’entrenament dels algoritmes són factors clau per garantir el seu correcte funcionament. És per això que el director tècnic d’Herta Security reclama la creació d’un organisme europeu capaç de supervisar els entrenaments i les dades utilitzades per les tecnologies de reconeixement facial al vell continent.

Fotografia: @InstitutOstrom

En aquest sentit, una de les principals polèmiques al voltant d’aquestes innovacions són les discriminacions racials i de gènere que s’han produït en els darrers anys, una problemàtica a la qual Google busca solució. “Els algoritmes no estan esbiaixats, són objectius. El que pot estar esbiaixat és la informació que recol·lectem i la manera com l’entrenem. Per evitar-ho, cal construir bases de dades suficientment grans i que garanteixin la pluralitat en tots els aspectes”, considera Fernàndez. “Els humans sempre estarem esbiaixats, de manera que la tecnologia també. Per això és tan perillós”, ha afegit Levi.

Fernàndez: "Els algoritmes no estan esbiaixats, són objectius. El que pot estar esbiaixat és la informació que recol·lectem i la manera com l’entrenem"

Una regulació per determinar

Davant de tots aquests dubtes, la Unió Europea fa anys que treballa en una legislació capaç de regular correctament l’ús de les intel·ligències artificials en la societat. Després de la publicació del Reglament General de Protecció de Dades (GDPR) el 2016, l’ens ha presentat enguany una nova proposta de llei que regula les aplicacions d’aquestes tecnologies en funció de quatre nivells de risc. Es tracta d’una legislació que, per Fernàndez, “va en la bona línia”, però que organismes com la Junta Europea de Protecció de Dades consideren massa poc restrictiva en l’àmbit de la vigilància biomètrica en espais públics.

“La nova regulació europea planteja massa excepcions i massa poques obligacions en l’ús de la vigilància biomètrica per part de les forces de seguretat”, ha criticat la fundadora de Xnet, qui opina que la legislació d’aquestes tecnologies “no es tracta d’ètica, sinó de drets humans”. “Hi ha un principi molt clar: transparència per a les institucions, privacitat per a la ciutadania. Podem utilitzar aquesta tecnologia, però la tendència del poder és l’oposada, de protegir-se a si mateix i garantir la seva supervivència”, ha afegit Levi. L’activista crida a la ciutadania a “minimitzar en tot moment” la demanda de dades, sigui d’empreses privades o de l’administració pública. “Hem de forçar el nostre entorn a adoptar una política de dades mínimes, per tal de preservar una societat digital més democràtica”, ha conclòs.