Doctor en física i comunicador científic
ChatGPT no és el teu amic
"Cal ser conscients de l’espai que volem reservar a la IA i quin espai volem preservar per nosaltres mateixos"
ChatGPT no és el teu amic. Tampoc és el teu company de feina. Ni la teva parella. Tampoc és metge, ni analista polític, ni meteoròleg. En definitiva, ChatGPT no és humà. Però si sabem que ChatGPT no és humà, per què interactuem amb ell com si ho fos?
Cap intel·ligència artificial actual, i probablement futura, està dotada de qualitats pròpies dels humans com són la consciència, la intenció ni la responsabilitat moral dels seus actes. El principal problema radica en el fet que els sistemes com ChatGPT estan dissenyats per fer-nos pensar el contrari. Ser convincent és, de fet, un dels seus trets principals.
No obstant això, ser convincent no és el mateix que ser fiable. Són nombrosos els estudis que demostren que els sistemes generatius com ChatGPT pateixen "al·lucinacions" de forma recurrent, on la informació que es mostra a l’usuari no té cap mena de fonament. Sovint, aquesta informació falsa queda dissimulada entre un conjunt d’informació objectivament correcta, de manera que la seva identificació esdevé una tasca majúscula. Aquest tret s’accentua encara més quan una gran part dels usuaris reconeixen que no tenen la capacitat de verificar la informació proporcionada [1].
"Cap intel·ligència artificial actual, i probablement futura, està dotada de qualitats pròpies dels humans com són la consciència, la intenció ni la responsabilitat moral dels seus actes"
ChatGPT pot arribar a reconèixer el seu error quan l’usuari remarca que la informació proporcionada per la IA és incorrecta. No obstant això, i com que no està dotada d’una consciència i una memòria reals, en successives iteracions pot tornar a caure en la mateixa equivocació. Cal dir, però, que la IA no té una intenció real de crear contingut fals. Primer, perquè no té intenció en el sentit humà de la paraula, i segon, perquè el sistema en realitat està dissenyat per reforçar la narrativa que ell mateix està creant per ser encara més convincent.
Un sistema esbiaixat que posa en risc la nostra privadesa
Els grans models de llenguatge, com ChatGPT, utilitzen una gran quantitat de dades presents a internet d’una forma o d’una altra. Basant-se en tota aquesta informació, aquests sistemes aconsegueixen crear models complexos que prediuen quina és la paraula que acompanya a les precedents. S’han pogut observar interaccions on la informació proporcionada pel ChatGPT conté fragments literals de texts existents amb els quals ha estat entrenat i que es troben protegits per drets d’autor. Aquests "records" representen un problema legal seriós. [2]
Un altre dels esculls de qualsevol sistema d’intel·ligència artificial són els biaixos que aquests poden integrar. Aquests biaixos tenen el seu origen en les dades d’entrenament quan aquestes no són completament representatives de la població [3]. De la mateixa manera que ChatGPT amplifica alguns dels biaixos presents a la societat, també ho fa amb alguns dels corrents polítics dominants a internet. Aquesta amplificació serveix d’altaveu d’alguns corrents "sorollosos" mentre que menysprea d’altres, creant bombolles d’opinió i polaritzant encara més la societat [4]. D’altra banda, la naturalesa de les dades, siguin generades artificialment o bé, reals, repercuteix també en la representativitat i qualitat del sistema d'IA, i contribueix a reforçar encara més aquests biaixos.
Tot i que darrerament ChatGPT inclou algunes de les fonts de les quals extreu la informació que es mostra en pantalla, part de la informació pot ser igualment errònia. Això pot ser degut perquè la font en si mateixa conté informació errònia (fet que va més enllà de la mateixa IA) o perquè ChatGPT se l’ha inventat i acaba atribuint obres inexistents a autors que poden o no ser reals [5].
"Malgrat que sembli que la nostra interacció amb aquest sistema és privada, les dades generades s’utilitzen per defecte per reentrenar futures versions del model, així com per compartir-les amb tercers"
Cal tenir en compte també que el que passa a ChatGPT no es queda (només) a ChatGPT. Malgrat que sembli que la nostra interacció amb aquest sistema és privada, les dades generades de la nostra interacció s’utilitzen per defecte per reentrenar futures versions del model, així com per compartir-les amb tercers. I aquí parlem, literalment, de la informació que estem proporcionant [6]. Un dels exemples recents més notables, és que OpenAI reconeix que comparteix algunes converses amb la policia amb l’argument de la seguretat i protecció dels usuaris [7].
Ningú pot assegurar on aniran a parar les nostres dades. Per aquest motiu és molt important no compartir informacions confidencials com poden ser dades personals, informació bancària i, sobretot, dades mèdiques. D’altra banda, s’han reportat casos en els quals el ChatGPT ha violat els principis de privadesa amb la revelació d’informació personal d’uns usuaris a uns altres de forma inadvertida [8]. Però les nostres dades també poden traspassar les fronteres del mateix sistema. S’ha demostrat que les nostres converses queden enregistrades i poden ser venudes a empreses i institucions que en poden treure profit sense el nostre consentiment explícit [9].
Una IA a qualsevol preu (humà)
L’entrenament de sistemes d’IA requereix en moltes ocasions la participació humana en el procés d’etiquetatge. Durant aquest procediment les persones assignades amb aquesta tasca s’encarreguen de catalogar les fonts de dades per tal que la IA corresponent pugui "aprendre". Aquesta tasca, que és primordial per obtenir sistemes acurats, és sovint duta a terme per persones en països en vies de desenvolupament en condicions laborals deficients i amb salaris paupèrrims [10].
"L’entrenament de sistemes d’IA requereix en moltes ocasions la participació humana en el procés d’etiquetatge, on s’encarreguen de catalogar les fonts de dades per tal que la IA corresponent pugui ‘aprendre’"
Sens dubte, sistemes com ChatGPT poden alleugerir certes tasques i fer-nos més productius. No obstant això, cal ser conscients també de l’espai que volem reservar a la IA i quin espai volem preservar per nosaltres mateixos. Alguns estudies demostren que delegar gran part de les nostres funcions a aquest tipus de tecnologies pot comportar una pèrdua significativa de capacitats cognitives, com la creativitat, a més de crear una dependència important [11].
Més enllà de l’impacte personal, sistemes com ChatGPT tenen un impacte mediambiental notable. Per culpa de l’opacitat d’empreses com OpenAI, desenvolupadora del ChatGPT, és impossible saber amb exactitud la quantitat de recursos que representa l’entrenament i desplegament dels grans models de llenguatge. No obstant això, s’estima que una consulta a ChatGPT podria tenir associada una despesa energètica deu vegades superior a la corresponent cerca a un buscador com Google. A més, el volum d’aigua que es requereix per refrigerar els centres de dades on s’allotgen aquests models és també considerable [12].
Replantejar-se la nostra relació amb la tecnologia
"Li has preguntat a ChatGPT?" ha esdevingut una frase recurrent cada cop que apareix un dubte durant una conversa entre amics o familiars. Cal qüestionar-se si cal recórrer de forma tan immediata a una font d’informació que no és del tot fiable i que comporta tants riscos tant individualment com a escala social i mediambiental. Fer-ne un ús responsable depèn de tots i cadascun de nosaltres, des dels centres de recerca i acadèmics, fins a l’usuari final passant, per descomptat, pels mateixos desenvolupadors. Només així ens podrem assegurar un futur sostenible.
En aquest sentit, l’Observatori d’Ètica de la Intel·ligència Artificial de Catalunya (OEIAC) posa a disposició de forma gratuïta una sèrie d’eines que permeten fer una avaluació de l’ús que fem de sistemes com el ChatGPT. El trobareu en el següent enllaç: