Vocal a Young IT Girls i encarregada de l’equip d’activitats
On són els límits amb la síntesi de veu?
“El cas de la veu de ChatGPT amb Scarlett Johansson va més enllà dels casos més comuns de ‘voice cloning’”
Ja fa més d’un any, vaig llegir reportatges sobre una nova veu de ChatGPT, anomenada Sky, que sortia com a nou producte oferit per OpenAI. El més sorprenent era que la veu, generada sintèticament amb models d’intel·ligència artificial, s’assemblava molt a l’actriu Scarlett Johansson. Els articles que vaig llegir, com per exemple aquest, exposaven que la companyia va (suposadament) dissenyar la veu per imitar a la Scarlett. A més, l’actriu va ser contactada nou mesos abans per OpenAI i va refusar participar en aquest projecte.
Aquest va ser el primer cas que he llegit que va més enllà dels casos més comuns de voice cloning (o clonació de veu), fent servir gravacions de veu d’una persona per crear-ne una de sintètica sense consentiment explícit (com per exemple, una “veu” de TikTok o, més recentment, la nova “veu” dels trens ScotRail). Aquest cas fa servir una veu com a objectiu final i la imita fent servir altres mètodes que no són les gravacions de la veu. Podria fer tot un article sobre voice cloning en general, i els perills que aquest tipus de tecnologia pot comportar, tant en el present com en el futur immediat. Però em vull centrar en el cas de la veu Sky perquè presenta moltes més preguntes que respostes.
"És l’ús d’una veu similar a la d’una persona que has contactat prèviament per treballar amb tu en un projecte, i la qual ha refusat, un problema? Segons la meva opinió, sí que ho és"
És l’ús d’una veu similar a la d’una persona que has contactat prèviament per treballar amb tu en un projecte, i la qual ha refusat, un problema? Segons la meva opinió, sí que ho és. Són pràctiques que no s’haurien de permetre, i més encara en casos on el disseny es fa, probablement, amb l’objectiu d’imitar una veu concreta.
Es pot considerar això un cas de voice cloning? Al meu entendre ho és, ja que estàs imitant una veu i patrons de parla concrets associats a una persona, tot i que no facis servir gravacions específiques d’aquesta.
Com a persona afectada, s’hi pot fer res? En aquest cas, Scarlett Johansson és una actriu famosa i té influència sobre els mitjans de comunicació, que en el seu cas van afavorir que OpenAI eliminés la veu sintètica dels seus productes. Legalment, és tot molt més complicat. Moltes pràctiques que es fan servir avui dia en el món de la intel·ligència artificial són encara permeses per part de la llei, o cauen en un buit legal. Avui dia, aquest buit legal està costant de tancar per raons de caràcter capitalista.
"Moltes pràctiques que es fan servir avui dia en el món de la intel·ligència artificial són encara permeses per part de la llei, o cauen en un buit legal"
Aquest cas també m’ha fet plantejar què vol dir fer servir la veu d’algú, i on hauríem de posar el límit. Des d’un punt de vista moral, una part essencial a tenir en compte és la intencionalitat de la creació. Si els creadors de la veu sintètica tenen com a objectiu imitar una veu específica, independentment de si han fet servir gravacions d’una persona per a clonar la veu o no, hauria de ser considerat un cas de voice cloning. Des d’un punt de vista legal, també ho hauria de ser, però pot ser més difícil de corroborar. Per tant, necessitem legislació que tingui en compte diversos casos de clonació de veu que ens protegeixin de mala praxi. D’altra banda, què passa amb els casos on no hi ha intencionalitat, és a dir, quan s’ha creat una veu d’una persona, però el creador no coneix a aquesta persona? S’hauria de protegir la veu de les persones en aquests casos?
Voice cloning és una tecnologia que millora en qualitat dia a dia. No només necessitem proteccions de caràcter legal i millores en regulacions d’aquesta tecnologia, si no millors definicions de què és fer servir la veu d’algú, i on posem la línia entre crear una veu i clonar una veu.