“Oblidem-nos d’intentar arribar a intel·ligències artificials realment intel·ligents si no els dotem d’un cos”
Ramon López de Mántaras Fundador i exdirector de l’Institut d’Investigació en Intel·ligència Artificial
Categories:
Hi ha poques persones a Europa que puguin parlar sobre intel·ligència artificial amb la mateixa autoritat que ho fa el professor Ramon López de Mántaras, un dels investigadors pioners en aquesta tecnologia a Catalunya i al continent. Professor emèrit del Consell Superior d'Investigacions Científiques (CSIC) i fundador i exdirector de l'Institut d'Investigació en Intel·ligència Artificial (IIIA) dins de la mateixa entitat, López de Mántaras estudia des finals dels anys 70 la ciència computacional i ha estat el “pare acadèmic” de més de 190 científics d’arreu del món. La seva carrera li ha valgut multituds de premis, entre els quals es troba el Premi Ciutat de Barcelona d'Investigació el 1982. El més recent, el reconeixement a la trajectòria professional que se li ha entregat durant la desena edició de l’AI & Big Data Congress, congrés on ha reivindicat la necessitat de “dotar la IA d’un cos multisensorial amb el qual pugui interactuar amb el món” i ha denunciat els “discursos apocalíptics” que pregonen alguns líders del sector com una “cortina de fum per distreure’ns i intentar amagar els actuals problemes” d’aquesta tecnologia. A MetaData seiem amb el professor per explorar els camins de futur de la intel·ligència artificial i les paraules que fem servir per explicar-la.
És adient fer servir el terme “intel·ligència artificial” per parlar d’aquesta tecnologia?
Analitzant-ho racionalment, no, no és un terme massa afortunat. Clar que ara tampoc tindria massa sentit intentar revertir-ho i inventar-se una nova manera de parlar sobre aquesta tecnologia, perquè s’ha estès a tot arreu. Sí que és cert que, mirant enrere, l'any 56, quan van proposar dir-ne intel·ligència artificial, potser no va ser massa encertat. El problema principal és que indueix de seguida a que antropomorfitzem. I en el moment que passa això, és molt fàcil pensar que les màquines són intel·ligents, raonen, aprenen… Les màquines intenten emular aquestes habilitats cognitives, però en un grau molt, molt, molt limitat, limitadíssim. Per tant, quan parlem d’intel·ligència artificial, hem de posar cometes al voltant del terme intel·ligència, perquè no és intel·ligent en el sentit que els humans entenem que vol dir ser intel·ligent. Tampoc raonen el sentit, no pensen. Poden emular certs aspectes del raonament deductiu, de la inferència lògica deductiva, i poca cosa més.
Quan es va encunyar el terme l’any 56, quines perspectives hi havia posades en aquesta tecnologia i com han acabat diferint de l’actual?
La idea, en aquell moment, quan es parlava d’intel·ligència artificial és molt diferent del que ha passat al llarg dels anys. Encara que no es deia així, pensaven en una intel·ligència artificial general i forta. És a dir, que fos general perquè fos capaç de fer qualsevol cosa, qualsevol tasca, ben feta, a un nivell comparable o superior als humans. I que fos forta en el sentit que no simulés tenir estats mentals, sinó que efectivament en tingués. Això després s’ha vist que no. En el terreny de la filosofia és molt interessant discutir sobre si quelcom que no està basat en la química del carboni, que no és biològic ni viu, pot o no tenir estats mentals com nosaltres. Però des del punt de vista tecnològic, i més científic, parlar d’intel·ligències artificials generals té sentit, però d’intel·ligències artificials fortes, no. Té sentit la general si l’entenem com a multitasca, una intel·ligència artificial que pot fer una àmplia varietat de tasques. Però no ser una ment. En canvi, al 56 i durant bastants anys, aquells pioners realment pensaven en la intel·ligència artificial forta. Ells realment creien fermament que era possible que emergís intel·ligència de quelcom que no fos biològic. De fet, [Allen] Newell i [Herbert Alexander] Simon, que el 56 eren dos dels principals de [la Convenció de] Dartmouth, quan van rebre el Premi Turing l’any 75, en la seva conferència d’acceptació del premi van formular la hipòtesi del sistema físic de simbols. Ells deien que qualsevol sistema, independentment de si el substracte és quimica orgànica, vida, o química del silici, els xips, si aquest sistema és capaç de processar informació, té totes les propietats necessàries i suficients per a tenir intel·ligència i estats mentals. Això és el que es pensava en aquella època. Avui dia això ja es veu que no hem anat per aquí. De fet, hem tingut els fracassos d’aquesta línia de recerca i s’ha passat a la intel·ligència artificial molt específica, que sap fer molt bé una única cosa. Això, a més a més, permet fer negoci i convertir-se en un producte. Ha derivat cap a vies completament diferents: no s’esperaven pas l’any 56 que la intel·ligència artificial arribaria a tenir l’impacte que té ara a nivell econòmic.
OpenAI, Google i la resta d'empreses han passat de llançar models generatius específics, de text, imatge o vídeo, a apostar per models més generals. Suposen el següent gran pas de la tecnologia?
Els de la intel·ligència artificial generativa en diuen intel·ligència artificial de propòsit general, no diuen que sigui intel·ligència artificial general, que no és exactament el mateix. Sí que s’està ampliant d’una manera molt limitada i amb moltes mancances, s’està aconseguint que aquestes intel·ligències artificials siguin multimodals, amb text, imatges, etc. Però això no vol dir que siguin intel·ligències artificials generals, ni molt menys. De fet, gent com Yann LeCun, el cap d’intel·ligència artificial de tot Meta, ha dit que la intel·ligència artificial generativa no només no ens condueix cap a la intel·ligència artificial general, sinó que és una rampa de sortida. Ens allunya.
“Gent com Yann LeCun, el cap d’intel·ligència artificial de tot Meta, ha dit que la intel·ligència artificial generativa no només no ens condueix cap a la intel·ligència artificial general, sinó que és una rampa de sortida. Ens allunya”
Per què ens allunya?
Perquè no es pot tenir intel·ligència artificial general sense un cos per interactuar amb el món. Cal un model del món per tenir intel·ligència artificial general. I calen coneixements de sentit comú, que només es poden adquirir interactuant amb el món. És l’única manera. Soc dels que creu una intel·ligència artificial no corpòria no té res a fer, no aconseguirem mai que entengui de veritat el llenguatge. Perquè comprengui la semàntica profunda, una intel·ligència artificial ha de no només controlar o tenir un model de les paraules, de la llengua, dels significants, sinó també dels significats, allò a què es refereixen. El significant de sol és la essa, la o i la ela, però el significat és el sol. Jo sé moltes coses del sol i n’entenc moltes coses perquè tinc un cos, i amb el sol m’he escalfat. O quan dic “cadira”, quan m’hi assec encara li dono més significat. Perquè estem sotmesos a les lleis de la gravetat i, com que tenim un cos, ens cansem. Si no hi hagués gravetat, les cadires no existirien, i els llits, tampoc. El cos és fonamental per comprendre el món. Des del segle XVIII que grans filòsofs ho han dit. DeepMind té un projecte que va començar el 2022, que es diu PLATO, en homenatge a Plató, que és un robot; li han donat un cos a la intel·ligència artificial perquè interaccioni amb els objectes que té al voltant i aprengui relacions causa-efecte, aprengui que quan un objecte està aturat, no es començarà a posar en marxa per si mateix, a menys que sigui un cotxe que té un motor. Pensa en una bola de billar. Si es comença a moure sense que ningú l’empenyi o sense que una altra bola la colpegi, oi que ens sorprendrà? Doncs estan fent això: que un robot se sorprengui quan vegi coses que des del punt de vista de la física no tenen sentit. Si Google DeepMind està posant ja cos a la intel·ligència artificial, és per alguna cosa. El mateix Demis Hassabis ja ho va dir: amb la intel·ligència artificial generativa no podem avançar cap a la intel·ligència artificial general. Oblidem-nos d’intentar arribar a intel·ligències artificials realment intel·ligents si no els dotem d’un cos. Aquest cos podria ser, fins i tot, en alguns casos, en un entorn virtual, però aquest simulador del món real hauria de ser molt perfecte, amb retorn hàptic: si t’empenyen al món virtual, hauries de sentir el cop. Però el millor és treballar interactuant amb el món real.
Diem que les IA són capaces d’aprendre de les dades amb què s’entrenen. Com es compara el seu aprenentatge amb el dels humans?
Hi ha moltíssimes diferències. Nosaltres tenim un aprenentatge continu i incremental. La intel·ligència artificial, no. Nosaltres, quan adquirim un coneixement nou, el nostre cervell de seguida el relaciona amb el que ja sabíem abans, per això en diem incremental. Quan aprenem una cosa nova, no ens oblidem de tot el que és anterior. La intel·ligència artificial no és incremental ni és contínua. I, a més a més, té el problema del catastrophic forgetting. S’han publicat centenars d’articles científics i seriosos on la gent està intentant resoldre aquest problema. Quin és? Que quan has entrenat una intel·ligència artificial perquè, per exemple, pugui discriminar amb imatges entre gossos i gats, ho arribarà a fer molt i molt bé, però si, a continuació, l’entrenés per fer una altra cosa, que diferenciï un altre tipus d’objectes o jugui a un joc, tritura tot l’anterior. Aprèn la nova tasca, però s’oblida del que havia après abans. És un tipus d’aprenentatge molt diferent, que no té res a veure amb el nostre, on la incrementalitat és bàsica.
“Nosaltres tenim un aprenentatge continu i incremental. La intel·ligència artificial, no”
És per això que OpenAI reentrena de nou cada model de GPT?
Alerta, GPT és una altra cosa. El GPT sí que pot tenir algun tipus d’incrementalitat. Quan et demana si t’ha agradat la resposta o si ho ha fet bé, això té un efecte. Hi ha milions de persones, i això molta gent no ho sap, que estan realment entrenant el ChatGPT, fent fine-tuning, dient-li “això sí”, “això no”... Se’n diu aprenentatge per reforç amb feedback humà. Això és una manera, efectivament, de millorar el ChatGPT. El que passa és que no és continu, no és en temps real, per això hi ha hagut el 2, el 3, el 3.5, el 4, ara el 4o, l’Strawberry… Perquè han de fer les millores offline i desplegar la nova versió, que suposadament és millor que l’anterior. Però no és la mateixa incrementalitat que nosaltres, on és continu i incremental sempre. Aquí no ens posem offline, excepte quan dormim, potser. Hi ha estudis que demostren que són importants, aquests moments del dia a dia, perquè consolidem coses que hem vist i hem après. Però en la intel·ligència artificial és molt diferent. Trobo que és bastant equívoc estar comparant contínuament la intel·ligència artificial amb la intel·ligència humana. Són coses molt diferents. Tenen poc a veure, molt menys del que alguns creuen o ens diuen.
Fa set anys vau ser un dels impulsors la Declaració de Barcelona per a un adequat desenvolupament de la intel·ligència artificial. S’estan respectant els sis punts que reclamàveu?
No (riu). Però no és una llei. La AI Act en principi sí que s’haurà de respectar, tot i que la càrrega burocràtica serà tan pesada que serà difícil, fins i tot en empreses que, amb molt bona fe i molta bona predisposició, la voldran complir. I aquí hi ha un problema. Però a part d’això, són recomanacions, com els principis d’Asilomar, a Califòrnia, o com altres declaracions que hi ha hagut arreu del món sobre la intel·ligència artificial. Són recomanacions, consells, i si algú en fa cas, en fa cas, i si no, doncs no. En el món acadèmic sí que es respecten molt aquestes coses, hi ha una consciència diferent, però en el món empresarial, on l’objectiu és guanyar diners, fer negoci, si veus que pots fer negoci fent una aplicació encara que vagi en contra d’alguna d’aquestes recomanacions, ho fas igualment. I la prova ho hem vist amb OpenAI, amb el principi de prudència, que és el número u que tenim: van desplegar ChatGPT a la brava, i això no ho haurien hagut de fer. Totes les grans tecnològiques se salten el principi de prudència. Les empreses no li fan cas, a aquestes recomanacions: ni la de Barcelona, ni la de Califòrnia, ni res, em temo. Tenen altres interessos molt forts.