Anhels i precs per una IA encara allunyada del sentit comú

El consum energètic dels centres de dades creix a gran ritme mentre els models més avançats inverteixen per assolir l’etiqueta d’intel·ligència artificial general

Categories:

Marc Vilajosana

L'AI & Big Data Congress celebra una dècada d'existència amb una tretena de ponents nacionals i internacionals per analitzar el passat, present i futur de la intel·ligència artificial
L'AI & Big Data Congress celebra una dècada d'existència amb una tretena de ponents nacionals i internacionals per analitzar el passat, present i futur de la intel·ligència artificial | Eurecat

A principis d’octubre, OpenAI va anunciar el tancament de la ronda de capital risc més gran de la història: 6.600 milions d’euros destinats a fer créixer els creadors del ja arxiconegut ChatGPT. Aquesta setmana, l’Acadèmia Sueca ha lliurat el Premi Nobel de Física a John J. Hopfield i Geoffrey E. Hinton, dos físics que van posar els fonaments de les xarxes neuronals que operen la intel·ligència artificial. Dos reconeixements, un econòmic i l’altre acadèmic, que confirmen que l’interès en aquesta tecnologia està lluny d’esvair-se. “Podríem pensar que la intel·ligència artificial és un hype, perquè és una cosa prometedora, però que encara no està madura; però no ho és per dos motius: no és una cosa recent, ja que s’hi treballa des dels anys 50, i ha estat aplicada amb èxit rotund en diferents àmbits”, ha assegurat la vicedegana d'Impacte Social i Innovació Acadèmica a la UPF Barcelona School of Management, Ana Freire, durant una conferència en la desena edició de l’AI & Big Data Congress organitzat pel CIDAI i coordinat per Eurecat.

La celebració dels 10 anys de vida de l’esdeveniment és un testimoni més de la fascinació que mou la IA, especialment en la seva variant generativa. “A Hugging Face ja hi ha publicats un milió de models d’IA generativa i se’n pengen uns 40.000 nous cada mes”, ha subratllat el científic de dades sènior de Telefónica Tech, Javier Coronado. Aquesta tendència s’ha traslladat també al món empresarial, on els experts en tecnologies intel·ligents comencen a posicionar-se com els perfils més cobejats. Tanmateix, les expectatives de creació de feina ja no són tan optimistes com en anys anteriors, tal com ha remarcat Freire: “En el Future of Jobs Report de 2020 s’estimava que la intel·ligència artificial crearia 97 milions de llocs de treball i en destruiria 85 en els pròxims cinc anys. Però a l’informe de 2023, s’estima que se’n crearan 69 i se’n destruiran 83”. A la desaparició de posicions més mecàniques i repetitives se’ls suma la falta de talent preparat per cobrir les necessitats de l’economia: “S’estima que el 2030 caldran a Europa 20 milions d’especialistes en TIC, però que només n’hi haurà 12 milions. Això és un problema: estem destruint llocs de treballs, i pels que quedaran no hi haurà treballadors”. Per cobrir aquesta demanda, Freire té clar que només hi ha una solució: intensificar l’educació tant a dins com a fora les empreses, a través de programes d’upskilling, reskilling, col·laboració amb l’acadèmia i bootcamps i postgraus.

Freire: “S’estima que el 2030 caldran a Europa 20 milions d’especialistes en TIC, però que només n’hi haurà 12 milions. Això és un problema: estem destruint llocs de treballs, i pels que quedaran no hi haurà treballadors”

Els treballadors no són els únics que pateixen la pressió d’haver de posar-se al dia amb la intel·ligència artificial, una preocupació que comparteixen amb les empreses, que conviuen amb la pressió d’haver d’estar adaptades a l’última tendència tecnològica. “És completament impossible estar al dia de tot el que passa amb la IA generativa. Qualsevol departament TIC sent que no pot amb tanta informació, però això ha arribat per quedar-se: està generant molt valor, tindrà una adopció massiva, canviarà la forma com treballen i està rebent injeccions de capital enormes”, ha comentat Coronado. Amb la intenció de transmetre tranquil·litat i orientació, el professional de Telefónica Tech ha enumerat diversos consells a l’hora d’escollir quina tecnologia fer servir, que se sintetitzen amb una idea clara: els grans models de llenguatge (LLM) no sempre són la solució. En algunes ocasions, la intel·ligència artificial “clàssica” és més eficient, ja que “té més explicabilitat, requereix menys recursos i no provoca tantes al·lucinacions”. En altres casos en què la IA generativa és necessària, és possible que surti més a compte recorre a models petits de llenguatge (SML), més econòmics i útils per a tasques senzilles. “En el món empresarial vull que el model sigui el millor per a un cas d’ús concret, i els models específics tenen més precisió”, ha aportat en la mateixa ponència l’enginyera de dades i IA en vendes a IBM Sara Martínez. Sigui com sigui, Coronado ha remarcat que el més important no és el model en si, sinó la metodologia emprada: “Si el cas d’ús és molt difús, està mal definit i no té mètriques de rendiment ni terminis, no aconseguirem res. Cal tenir clar què volem fer i com fer-ho”.

Encara lluny de la IA general

Tota aquesta expectativa cap a la intel·ligència artificial generativa condueix inevitablement a preguntar-se quin serà el següent pas. Aquest estiu, Bloomberg desvelava que OpenAI ha plantejat internament cinc fases fins a convertir el seu producte en una intel·ligència artificial general (AGI), és a dir, una xarxa neuronal amb una capacitat de raonament equiparable a la humana. “Hi ha tres factors que ens distingeixen de les intel·ligències artificials: l’habilitat d’aprendre a partir de poques dades o experiències, la imaginació contra la recitació i la integració de manera molt fina de tota la informació que ens arriba de diversos sensors. Això és el que fa que no es consideri encara intel·ligència artificial general”, ha llistat Freire. Segons apuntava Bloomberg, els darrers models de GPT han entrat en la segona d’aquestes cinc fases, però hi ha experts que dissenteixen amb la companyia de Sam Altman. “El CEO de Google DeepMind i recent guanyador del Nobel de Química, Demis Hassabis, ha reconegut que els grans models d’IA generativa no són el camí per la IA general”, ha replicat el professor d’investigació emèrit, director i fundador l’Institut d’Investigació en Intel·ligència Artificial (IIIA) del CSIC Ramon López de Mántaras, qui ha rebut durant el congrés un reconeixement a la trajectòria professional.

Per López de Mántaras, el camí a seguir implica “dotar la IA d’un cos multisensorial amb el qual pugui interactuar amb el món”. “La recepta implica desenvolupar sistemes que puguin desenvolupar els elements bàsics del coneixement humà: el temps, l’espai i la causalitat”, ha continuat, una base sobre la qual caldrà implementar “una arquitectura que pugui resoldre problemes incerts i canviants” i un sistema d’aprenentatge “que utilitzi aquests coneixements per relacionar-los amb allò que s’ha après abans”. Una teoria en què el mateix investigador ja va publicar una recerca l’any 2017 i que companyies com Google DeepMind estan treballant-hi a través de PLATO (Physics Learning through Auto-encoding and Tracking Objects), un sistema que aprèn conceptes bàsics del món físic directament amb informacions visuals i interaccions amb el món. “Aquesta semàntica és molt diferent de la molt superficial semàntica distribucional dels grans models de llenguatge. I això no és nou: John Locke ja va escriure al segle XVII que les experiències mitjançant els sentits són la base del coneixement”, ha remarcat.

López de Mántaras: "El discurs apocalíptic s’ha posat sobre la taula per intentar amagar els actuals problemes: falsificació de persones, violació de la privacitat, facilitat de generar textos, imatges i vídeos falsos, control massiu de la ciutadania, confiança excessiva en les capacitats de la IA, biaixos dels algoritmes, impossibilitat de retre comptes i insostenibilitat energètica dels grans models”

De fet, l’expert s’ha mostrat molt crític amb l’actual valoració que es fa de l’estat actual de la intel·ligència artificial: “Alguns afirmen que el sentit comú ja està emergint en els models. En la meva opinió, no crec que combinar tokens estadísticament sense comprendre el significat sigui sentit comú, per molt que augmentem el nombre de dades”. Citant al filòsof estatunidenc Daniel Dennet, López de Mántaras ha afirmat que “hem desenvolupat tecnologia molt eficaç per enganyar les persones”, una acció que hauria de ser “tant o més greu” que falsificar diners, ja que a les IA “no se’ls pot exigir responsabilitats i tenen gran potencial per desinformar”. L’expert català ha restat credibilitat al “discurs apocalíptic” que pregonen alguns dels caps visibles de la indústria de la intel·ligència artificial, com el fet que la IA arribi a tenir consciència i decideixi per si mateixa controlar el món. “És ridícul donar-li creences o objectius propis. Possiblement, aquest discurs s’ha posat sobre la taula com una cortina de fum per distreure’ns i intentar amagar els actuals problemes: falsificació de persones, violació de la privacitat, facilitat de generar textos, imatges i vídeos falsos, control massiu de la ciutadania, confiança excessiva en les capacitats de la IA, biaixos dels algoritmes, impossibilitat de retre comptes i insostenibilitat energètica dels grans models”.

El problema energètic

La qüestió mediambiental ha estat un dels punts que més ha destacat López de Mántaras, qui ha recuperat els comentaris fets la setmana passada per l’exCEO de Google Eric Schmidt, qui considera que no s’haurien de posar límits en la construcció de centres de dades perquè “tampoc arribarem mai a assolir els objectius de canvi climàtic”. De fet, Google ha augmentat un 48% les emissions de gasos amb efectes hivernacle en els últims cinc anys, en bona part a conseqüència de l’energia que demanda la intel·ligència artificial. Segons xifres de la Center for Low Carbon Society Strategy (LCS) de l’Agència Japonesa de Ciència i Tecnologia (JST),  el volum de dades que fa servir la IA es multiplicarà per 18 entre 2018 i 2030. Al seu torn, el consum d’energia es multiplicarà per 13 en el mmateix període, passant de 190 teravats per hora (TWh) anuals a 2.600 TWh.

Davant d’aquesta “intel·ligència artificial famolenca de dades”, la directora d’innovació comercial de NTT Data Rika Nakazawa ha desvelat les dues solucions en què la seva companyia treballa a llarg termini per combatre el consum energètic de la IA: la fotònica i l’espai. La primera d’elles implica un canvi radical de la infraestructura dels centres de computació, que passarien d’estar operats per conexions electròniques a fer-ho amb fotòniques. El projecte, denominat Innovative Optical and Wireless Network (IOWN), promet una millora de l’eficiència energètica de 100 vegades més gran, una capacitat de transmissió 125 vegades més gran i una baixa latència que seria 1/200 parts de l'actual. Aquest sistema es mostrarà al públic a gran escala per primera vegada durant l’Exposició Mundial d’Osaka de 2025. Per la seva banda, NTT Data treballa en la planificació d’una xarxa de computació instal·lada en satèl·lits a l’espai, un entorn qu eés considerat una “pica de calor natural” per als centres de dades, que a més poden rebre energia solar de manera constant per ser alimentats. Dues idees que la mateixa Nakazawa ha reconegut que sonen “molt futurístiques” i no donen una solució als problemes energètics que estan succeint en l’actualitat, pels quals “no té la panacea més enllà de les microaccions”. “La innovació no passa de la nit al dia, necessitem temps per arribar-hi”, s’ha defensat la directora d’innovació comercial de NTT Data.