“La informació que et proporciona una eina d’IA generativa és una informació per la qual no respon ningú"
Patrícia Ventura Pocino Investigadora en ètica, intel·ligència artificial i comunicació
Categories:
La desinformació a internet és una de les preocupacions que ha anat en augment en els darrers anys, especialment d’ençà de l’aparició d’eines d’intel·ligència artificial generativa que han facilitat la redacció de textos informatius o la creació d’imatges aparentment versemblants. Aquesta tendència ha arribat al món del periodisme, on els professionals debaten internament com fer-hi front i si és o no adient fer ús d’aquestes tecnologies a la feina. “Si no entens mínimament com funcionen els algoritmes, no pots comunicar”, deixa clar la doctora en Mitjans, Comunicació i Cultura per la Universitat Autònoma de Barcelona (UAB) Patrícia Ventura Pocino, qui des del 2018 ha especialitzat la seva recerca en l’ètica que impregna l’ús de la intel·ligència artificial en el món de la comunicació. Abans que OpenAI es donés a conèixer al món amb ChatGPT, la investigadora ja va elaborar l’informe Algoritmes a les redaccions amb el Consell de la Informació de Catalunya, i recentment ha publicat amb l’Editorial UOC el llibre Intel·ligència artificial, ètica i comunicació: el factor humà a l'era de la mediació algorítmica. Sense perdre de vista que, des d’una “visió purista”, les IA generatives “no són ètiques, ni tan sols legals”, Ventura defensa que el periodisme ha de “fer un pas endavant” i promoure una “adopció responsable” que permeti aprofitar els avantatges “en productivitat i eficiència” dels algoritmes per crear “continguts que donin resposta a la missió del periodisme: contribuir al diàleg democràtic”.
Abans del llançament de ChatGPT i la resta de models generatius de text, la intel·ligència artificial ja s’havia fet un lloc en les redaccions. Amb quina mena de continguts?
Ja fa més d’una dècada que es va començar a fer servir la intel·ligència artificial per generar textos, no amb IA generativa, sinó amb una tecnologia que consistia en unes plantilles amb què es podia automatitzar l’automatització de textos a partir de bases de dades d’informació fàcil d’estructurar. Per exemple, resultats de borsa, prediccions meteorològiques, resultats electorals… Uns textos molt bàsics a nivell estructural. Això es va començar a fer ja fa molt de temps, i aquí es continua fent a l’hora d’informar sobre resultats electorals en petites localitats o resultats esportius de categories menors, que d’una altra manera els mitjans informatius no tindrien mans per fer-ho. També es feia servir molt en la fase de distribució del producte periodístic amb el mateix format que els recomanadors que et trobes a Amazon o que els algoritmes de la xarxa: per optimitzar l’experiència de l’usuari a partir de la recomanació de continguts que són més susceptibles que interessin a aquell usuari. Una altra manera molt interessant en què s’utilitza des de fa anys és en el rastreig de dades en el periodisme d’investigació. En investigacions com els Papers de Pandora la intel·ligència artificial va ajudar a rastrejar terabytes d’Excels plens de dades i a fer associacions entre noms i empreses per extreure possibles notícies que els equips periodístics analitzaven i verificaven. També s’utilitzava en la fase prèvia de creació de continguts, amb eines que envien alertes sobre possibles temes noticiables, rastrejant la web i enviant avisos a partir dels volums. Estem encara en fase de definició, i continuen sortint idees i maneres de fer-la servir.
La personalització dels continguts o la proposta de temes noticiables xoquen amb la responsabilitat de la premsa de decidir quina informació és rellevant i oferir-la de manera plural. Com s’ha gestionat aquest conflicte?
La funció del mitjà de comunicació, que trobem en la seva raó de ser, és exposar les persones a diversitat per contribuir a la conversa democràtica i evitar, per tant, la polarització. La personalització aplicada fins a l’extrem, sobretot en temes més sensibles com la política, l’esport o les vacunes, fa que quan consumeixes molt d’un contingut concret, et mostri més d’allò. Per tant, comença a anar en contra d’aquesta funció que li és pròpia al periodisme, que és contribuir a la salut democràtica. Aquí sorgeix una altra força, la de la productivitat i l’eficiència, que ens mana tant no només en el periodisme, sinó en tots els sectors. Són els valors sobre els quals es guia el sistema neoliberal en què estem, que és molt agressiu. La intel·ligència artificial permet millorar l’experiència de l’usuari a través de la personalització, però és el que fan les xarxes, i és la força de mercat. Aquí el periodisme, a poc a poc, i penso que cada cop en som més conscients, ha d’adoptar la mirada de l’adopció responsable, perquè si optimitzes fins a l’extrem, deixes de ser qui ets, traeixes la teva missió. I, des d’un punt de vista pràctic, tampoc et podràs posar a competir amb les xarxes socials a nivell de personalització. Estratègicament, tampoc té sentit apostar per una personalització extrema. La clau està en l’equilibri: si algú no mira mai temes d’esports i només mira cultura, té sentit recomanar-li continguts que potser li interessen, però sense deixar de mostrar-li, per exemple, que el Barça ha guanyat la lliga, perquè és una notícia que forma part de l’agenda del dia. Això aplicat a les portades, als butlletins i a tots els entorns en què un mitjà periodístic es comunica. En el cas de les alertes de notícies, passa el mateix: decidir què és notícia i què no forma part del nucli de la funció editorial del periodisme. És una eina que ens pot resultar molt útil perquè estem en mil coses i ens pot ajudar, no descartem la tecnologia, però apliquem-hi un filtratge i una mirada editorial. El periodisme ha d’adoptar aquesta mirada equilibrada per fer una adopció de la tecnologia sobre la base dels seus criteris, els seus valors i la seva raó de ser.
“El periodisme ha d’adoptar una mirada equilibrada per fer una adopció de la tecnologia sobre la base dels seus criteris, els seus valors i la seva raó de ser”
La proposta que es defensava aleshores era automatitzar els continguts de poc valor per donar més prioritat a la qualitat. Amb l’evolució de la tecnologia, aquest discurs es manté?
Des del periodisme hem d’agafar una perspectiva molt àmplia i recordar quina és la nostra raó de ser. La primera pregunta que t’has de fer és per a què ha de servir la informació a la ciutadania. Estem inundats d’informació, de notificacions… Ens surten per les orelles. El que necessitem, des d’aquesta mirada periodística, és informació que serveixi a la ciutadania per prendre decisions informades, que contribueixi a la qualitat democràtica i que no polaritzi. Cal fer una reflexió molt profunda sobre si té cap sentit publicar el resultat d’un partit de futbol, quan Google ja t’ho mostra. Hem de ser capaços d’oferir una proposta de valor que garanteixi a la ciutadania del futur alguna mena de comunicació cívica. Perquè si ho deixem tot en mans dels qui gestionen les plataformes, podem acabar cada cop més polaritzats. Hi ha estudis que confirmen que la comunicació, tal com està plantejada a les plataformes, contribueix a la polarització i a la desinformació, per no parlar de l’extractivisme de les dades personals i de com agredeix els nostres drets a la privacitat. És una tecnologia sobre la qual no tenim cap mena de control.
Com ha de ser aquesta nova proposta de valor periodística?
Continguts que donin resposta a la missió del periodisme: contribuir al diàleg democràtic. I això és assegurar-nos que la ciutadania disposa d’informació de qualitat, que és informació veraç i per la qual algú respon. Perquè això és una cosa que no pot tenir cap màquina: la informació que et proporciona una eina d’intel·ligència artificial generativa és una informació per la qual no respon ningú. Informació que contribueixi al diàleg, que exposi a la diversitat, perquè vivim en democràcies, i això vol dir acceptar altres punts de vista, negociar-los, pactar-los i construir plegats. El que necessitem és informació alineada amb aquests objectius que formen part de la missió de la comunicació cívica.
Quines responsabilitats hauria d’assumir el periodista que decideix emprar la intel·ligència artificial generativa en l’elaboració d’algunes de les seves feines?
A l’informe del Consell de la Informació vam fer una sèrie de recomanacions per a l’ús ètic de la intel·ligència artificial, de qualsevol mena de tecnologia amb IA, que principalment es poden resumir amb el que hem dit abans: que tot allò que nosaltres publiquem estigui alineat amb els grans valors ètics del periodisme, que són la veracitat, la justícia, la llibertat i la responsabilitat, i amb la seva missió. Fer servir aquesta tecnologia és perfecte si la teva informació és veraç. Però què has de fer? En l’exemple dels xatbots, assegurar-te de verificar que allò que has pogut extreure amb l’ajuda d’aquesta màquina sigui veraç. Fer la teva feina de periodista, perquè ets tu qui hauries de respondre davant d’aquesta informació. També has de ser molt transparent a l’hora de comunicar quan opera la intel·ligència artificial en el teu contingut. Quan fas servir bases de dades, perquè aquestes eines són bases de dades més algoritmes, has d’assegurar-te que provinguin de fonts fiables i acreditades. El que hem fet, teòricament, tota la vida, aplicar-ho a l’ús d’aquesta tecnologia. I quan fem servir sistemes de recomanació, tot el que hem comentat abans: potser no hauríem d’excloure determinades categories en aquests sistemes, totes les qüestions polítiques o que generen polarització. Una idea pot ser dissenyar sistemes o algoritmes que promoguin o destaquin determinats continguts amb mirada de servei públic, tenint en compte els valors del teu propi mitjà. Si el teu mitjà és de proximitat, per què no dissenyes un algoritme que destaqui els temes més territorials o en què ha participat la teva comunitat directament? Hem de dissenyar tecnologia, i per això ens hem d’aliar perfils periodístics i perfils tècnics, perquè estigui alineada amb aquests valors. Després estan també les característiques de cada mitjà: si en la línia editorial està l’ús de la llengua i la promoció de la pròpia cultura, no té cap sentit fer servir eines d’intel·ligència artificial en què el llenguatge que fan servir o els referents culturals són absolutament aliens i el llenguatge és pobre.
“Hem de dissenyar tecnologia, i per això ens hem d’aliar perfils periodístics i perfils tècnics, perquè estigui alineada amb els grans valors ètics del periodisme: la veracitat, la justícia, la llibertat i la responsabilitat”
Diverses empreses del sector han rebut denúncies per emprar sense permís materials protegits per drets d’autor per entrenar els models generatius. Es pot defensar un ús ètic de la intel·ligència artificial de base sabent això?
No. No. És un tema. Si vas al fons, si ets molt purista, pots decidir directament no fer-la servir. No són ètiques, ni tan sols legals. Estem parlant de drets d’autor; de fet, ChatGPT va ser prohibida a Itàlia al principi, per l’Autoritat de Protecció de Dades, perquè basant-se rigorosament en l’RGPD, era una eina il·legal. Són eines que ens poden ajudar molt en el dia a dia, tot allò que comentàvem de la productivitat i l’eficiència, però qui demanda té raons per fer-ho. I no només hi ha els drets d’autor, també hi ha el tema del medi ambient. Són eines que consumeixen moltíssima energia i aigua. Ara bé, també hi ha la versió d’associar-se. Hi ha mitjans de comunicació que han signat tractes amb aquestes eines perquè puguin entrenar-se amb les seves dades, ara sí, amb compensació, per millorar les eines i obtenir alguna cosa a canvi. És una ètica fluctuant, en funció de tot allò que aporten, que també valorem, perquè hem de reconèixer que són eines impressionants. Si et dediques a la comunicació, poden ajudar-te molt.
Quins casos en destacaria?
Sobretot, productivitat. També són eines creatives: si et dediques a la comunicació d’una institució, aquestes eines et serveixen per fer recerca, per plantejar què pot necessitar algú, per fer pluges d’idees… Dins d’una redacció, et poden servir per aportar idees per començar un text o sobre com estructurar-lo, prendre diferents enfocaments… Personalment, no estic en el món del disseny, el vídeo o la imatge, però em consta que en aquests sectors també ajuden molt creativament. Eines de vídeo com Sora, que encara no està a l’abast de tothom, em sembla espectacular. Però si ho poses a la balança amb totes les qüestions de base que hem plantejat abans, et pot provocar un dilema ètic tan bèstia que he vist gent que directament no les toca. Aquí sorgeix tot un altre debat: aquestes eines generen coses, però les persones humanes vivim per crear, i les màquines ens estan robant d’alguna manera la possibilitat de viure de la creació. I ja està passant, no amb els més grans escriptors, guionistes o dissenyadors, però sí amb gent que es guanyava la vida creant.
Avui, qualsevol persona pot generar centenars de textos amb estructura de notícia a través de xatbots intel·ligents i crear un mitjà digital amb ells. Quins efectes té això per l’accés a la informació verificada de la ciutadania?
El que pot passar és que la ciutadania no acabi distingint què és veritat i què és mentida, i que no existeixi una institució en qui confiar. Però més que el fet que qualsevol tingui accés a aquesta eina, a mi el que em preocupa és que el periodisme no trobi el seu lloc en aquest entorn. És el nostre sector qui ha de fer un pas endavant, ser estratègic i erigir-se en aquesta institució en qui confiar quan no sabem què és veritat i què no. Una institució que es fa responsable de la informació i rendeix comptes per ella. Una institució que garanteix el dret a la informació, que és un dret reconegut de la ciutadania. Que la gent tingui accés a aquestes eines és perillós, i s’ha demostrat amb qüestions de pornovenjança, que amb IA generativa posen la cara d’algú en un cos nu. Però el que em sembla més perillós del risc de deixar de garantir el dret a la informació és que el periodista no sàpiga trobar el seu lloc. Perquè si només et fixes en la productivitat i l’eficiència, no et singularitzes ni aportes res diferencial. I ara, al periodisme li toca aportar com a element diferencial aquesta garantia de comunicació veraç i orientada a contribuir al bé comú.
“És el nostre sector qui ha de fer un pas endavant, ser estratègic i erigir-se en aquesta institució en qui confiar quan no sabem què és veritat i què no”
Defensa implantar un model de complementarietat entre la IA i la feina dels professionals de la comunicació. Com arribem a l’equilibri sense que l’una es mengi els altres?
Una de les maneres és assimilant la tecnologia i sent capaç de posar-la al servei dels valors de la professió, i així diferenciar-se. Aquesta és la proposta que fem des de la nostra recerca. Hi ha una cosa fonamental a l’hora de definir com ser complementaris amb les màquines, que és fer un pas enrere i tenir molt clar què és allò que ens diferencia de les màquines, allò que ens fa humans. Les màquines no tenen subjectivitat; pots fer veure que tenen autonomia, però no la tenen, sempre hi ha algú que les programa. No tenen criteri moral. I no poden assumir cap responsabilitat. Són tres qualitats fonamentals i definitòries de la nostra professió. No hi ha cap investigació periodística que no neixi d’un judici moral o de la mateixa subjectivitat. Les màquines no poden sentir emocions, i qualsevol tema periodístic neix d’una inquietud emocional o de l’empatia. La nostra professió és molt humana, i tenim les eines per distingir-nos de la màquina i posar-la al nostre servei. Les hem de fer servir, aprofitar-les, tenen coses boníssimes, però no oblidem què és allò que ens fa humans, perquè és el que acabarà singularitzant un producte periodístic de qualitat i en favor del bé comú.