L’amor en temps d’IA, un perill per a les dades personals
El 90% de les aplicacions de xicotes creades amb intel·ligència artificial poden vendre les informació personal dels usuaris i el 54% no permet eliminar-la amb facilitat
Categories:
Rosses, amb ulls blaus o verds, cabells llargs i cossos perfectament proporcionats. Aquests són alguns dels trets de les xicotes virtuals que es troben en les nombroses aplicacions que es poden instal·lar en un mòbil amb un senzill clic. Uns programaris darrere dels quals s'hi amaguen una multitud de perills que l'usuari sovint desconeix. Segons la Fundació Mozilla, que va analitzar una desena d'aquests xatbots romàntics, el 90% d'aquestes aplicacions poden vendre les dades personals dels usuaris o compartir-les amb finalitats publicitàries. “Aquest tipus d'aplicacions haurien d'informar de forma clara i senzilla de quin ús faran de les dades que s'incorporin de forma directa o indirecta a la plataforma, i si existeixen certs dubtes o bé es detecten alguns usos que no són adequats, hauria de ser un indicador suficient per no utilitzar-les”, adverteix el professor col·laborador dels Estudis de Dret i Ciència Política de la Universitat Oberta de Catalunya (UOC) Eduard Blasi.
Els perills d'aquests xatbots no acaben aquí: un 73% no dona cap informació sobre com gestionen les vulnerabilitats de seguretat, i pràcticament la meitat (45%) permeten contrasenyes tan febles com posar simplement el número 1. A més, el 54% de les aplicacions no permet eliminar les dades personals que s'han facilitat, entre les quals hi pot haver les converses que s'han mantingut amb la xicota virtual. De fet, la majoria d'aquestes aplicacions deixen clar que poden compartir la informació que s'hagi donat a la parella virtual amb el govern o les forces de l'ordre sense requerir cap mena d'ordre judicial.
Quatre grans perills
“Les xicotes d'intel·ligència artificial són un malson per a la privadesa de les persones, i és una idea nefasta utilitzar-les”, deixa clar el professor dels Estudis d'Informàtica, Multimèdia i Telecomunicació de la UOC Josep Curto. En la línia del que adverteix la Fundació Mozilla, Curto resumeix quatre dels principals perills. El primer d’ells fa referència al volum i la tipologia de les dades recollides: “Aquests xatbots d'IA generativa estan dissenyats per demanar el màxim d'informació possible, des de fotografies, la teva veu o la informació més íntima, com ara referències sexuals”. Per aconseguir-ho utilitzen frases com “vull saber-ho tot de tu”. En aquesta línia, Blasi insisteix que la informació que aquestes aplicacions poden tractar és realment sensible, ja que el fet que es derivi d'un context de parella fa que la informació sigui de caràcter íntim i reservat.
Curto: “Les xicotes d'intel·ligència artificial són un malson per a la privadesa de les persones, i és una idea nefasta utilitzar-les”
Un segon punt és que la lletra petita de les condicions d'ús d'aquests serveis no és clara amb la utilització que fan de la informació de l'usuari. “Aquestes dades són susceptibles de convertir-se en la font d'ingressos principal d'aquestes empreses, compartint-les amb companyies interessades en perfils de persones”, apunta Curto. En tercer lloc, l’expert identifica que “algunes d'aquestes aplicacions sovint inclouen rastrejadors que envien informació a països que tenen interès en l'espionatge de les persones i consideren que la privacitat no és un dret”. La geografia és subratllada també per Blasi, qui recorda que “el país ens indicarà el marc normatiu i, per tant, el grau de protecció que podrà aplicar-se en el tractament de les nostres dades”.
Finalment, el quart perill a què s’exposen els usuaris que fan servir aquests xatbots romàntics és que “no hi ha transparència en el tipus de model d'intel·ligència artificial fundacional utilitzada en el sistema ni si s'ha dissenyat seguint les premisses de la IA responsable”. Davant d'aquesta situació, i tenint en compte que el mercat d'aplicacions fa “poca cosa” per limitar la proliferació d'aquestes aplicacions, Curto fa una crida perquè es conscienciï el ciutadà sobre els problemes que poden generar aquestes xicotes virtuals: “Cal evitar aquestes aplicacions per no trobar-se en un futur en situacions complicades, no solament pel tema de les dades, sinó també per potencials escenaris de ciberestafes”.
Problemes psicològics
Aquests xatbots romàntics no tan sols posen en perill la privacitat de l'usuari, sinó que també poden provocar-li problemes psicològics. “El simple fet de barrejar IA amb la paraula xicota —perquè bàsicament la majoria d'aplicacions ofereixen un perfil de dona— ja em sembla perillós”, la professora col·laboradora dels Estudis de Psicologia i Ciències de l'Educació de la UOC Sylvie Pérez. “El fet que sigui una dona ajuda a perpetuar els estereotips de gènere de dones complaents, submises, que sempre estan disponibles i que mai estan de mal humor”, afegeix.
Pérez: “El fet que sigui una dona ajuda a perpetuar els estereotips de gènere de dones complaents, submises, que sempre estan disponibles i que mai estan de mal humor”
Un altre dels aspectes que cal tenir en compte és que una xicota d'intel·ligència artificial es crea en funció del caràcter de l'usuari, cosa que genera una manera d'interactuar amb algú que imagines a l'altre costat i que està preparada per donar-te sempre la raó, “creant patrons d'entendre les relacions amb els altres que no s'ajusten a la realitat”. “Pots arribar a confondre quines són les interaccions socials i la seva naturalesa real, que parteixen de la base que hi pot haver conflictes, desacords, diferents punts de vista… I això és precisament el que ens fa intel·ligents, el que en definitiva ens fa créixer”, recorda la professora col·laboradora de la UOC. “A banda, també es corre el perill que si es passen moltes hores interactuant amb aquestes xicotes virtuals, es tinguin dificultats per poder separar la realitat de la ficció”, afegeix Pérez. “O d'entrada entens que estàs interactuant amb tu mateix o pots perdre el cap”, conclou la psicòloga.