Gran avenç en neurociència. Una dona ha tornat a parlar gairebé vint anys després gràcies a la intel·ligència artificial, tal com ha anunciat aquest dilluns la Universitat de Califòrnia a Berkeley (UC Berkeley). Segons la recerca publicada a Nature Neuroscience, un equip d'aquesta universitat i de la UC San Francisco han descobert una manera de restaurar la parla naturalista per a persones amb paràlisi severa. En altres paraules, es tracta d'una neuropròtesi que tradueix els pensaments en veu en temps real.

La recerca resoldria l'antic repte de la latència en les neuropròtesis de la parla, és a dir, el retard entre quan el subjecte intenta parlar i quan es produeix el sol. Fent servir els avenços recents en els models basats en la IA, els investigadors han desenvolupat un mètode de transmissió que sintetitza senyals cerebrals en veu audible gairebé en temps real. L'equip ha assegurat que aquesta tecnologia representa un pas crític per permetre la comunicació a les persones que han perdut la capacitat de parlar.

Una tecnologia com Alexa i Siri

Investigadors de l'equip com Gopala Anumanchipalli, Robert E. i Beverly A. Brooks han assenyalat que "aquest enfocament de streaming ofereix la mateixa capacitat de descodificació de veu ràpida de dispositius com Alexa i Siri a les neuropròtesis". "Utilitzant una mena d'algorisme similar, vam descobrir que podríem descodificar dades neuronals i, per primera vegada, habilitar la transmissió de veu gairebé sincrònica. El resultat és una síntesi de parla més natural i fluida", han afegit.

 Per la seva banda, l'investigador principal de l'estudi, Edward Chang, ha indicat que "aquesta nova tecnologia té un enorme potencial per millorar la qualitat de vida de les persones que viuen amb una paràlisi severa que afecta la parla". "És emocionant que els últims avenços de la IA estiguin accelerant molt el camp de les interfícies cervell-ordinador per a un ús pràctic en el món real en un futur pròxim", ha dit. A més, Kaylo Littlejohn, coautor principal de la recerca, ha remarcat que "aquesta tècnica no es limita a un tipus específic de dispositiu": "El mateix algorisme es pot utilitzar en diferents modalitats sempre que hi hagi un bon senyal".

L'Ann torna a parlar 20 anys després

Com funciona la neuropròtesi? Cheol Jun Cho, també autor principal, ha explicat que funciona mitjançant el mostreig de dades neuronals de l'escorça motora (la part del cervell que controla la producció de la parla) i que, després, s'utilitza la IA per descodificar la funció cerebral en parla. "Essencialment, interpretem senyals on el pensament es tradueix en articulació i enmig d'aquest control motor. (...) Així que el que descodifiquem és després d'haver passat un pensament, després d'haver decidit què dir, després d'haver decidit quines paraules utilitzar i com moure els músculs del tracte vocal", ha intentat aclarir.

Per entrenar l'algorisme ha estat clau un subjecte de prova: l'Ann, que fa vint anys (quan en tenia 30) va patir un ictus que la va deixar greument paralitzada. Durant aquest entrenament, l'Ann havia de mirar una pantalla on hi havia una frase simple ("Ei, com estàs?") i intentar pronunciar-la en silenci. "Això ens va donar un mapa entre les finestres fragmentades d'activitat neuronal que ella genera i la frase objectiu que està intentant dir, sense que hagi de vocalitzar en cap moment", ha apuntat Littlejohn. 

L'Ann no té cap vocalització residual i, per tant, els investigadors no tenien ni àudio objectiu ni sortida amb les quals poguessin mapar les dades neuronals. Un problema que van resoldre amb la IA, per omplir els detalls que faltaven. "Hem utilitzat un model de text a veu preentrenat per generar àudio i simular un objectiu. (...) I també vam utilitzar la veu de l'Ann abans de la lesió, així que quan descodifiquem la sortida, sona més com ella", ha explicat Cho.

Els mateixos investigadors ja van presentar un estudi el 2023 amb la mateixa dona, però aleshores hi havia una llarga latència per a la descodificació: un retard d'uns vuit segons per a una sola frase. Ara, el nou enfocament de streaming permet generar una sortida audible gairebé a temps real. "El dispositiu pot descodificar contínuament la parla, de manera que l'Ann pot seguir parlant sense interrupcions", ha celebrat Anumanchipalli. A més, l'augment de velocitat no s'ha produït a costa de la precisió, que s'ha mantingut igual que en l'enfocament anterior. "És prometedor. Abans no se sabia si es podia transmetre un discurs intel·ligible des del cervell en temps real", ha afegit Littlejohn.

Reptes de futur de la neuropròtesi

Anumanchipalli ha destacat que es tracta d'un model d'aprenentatge, tal com van comprovar quan van fer servir 26 paraules rares extretes de l'alfabet fonètic de l'OTAN ("Alpha", "Bravo", "Charlie"...) que no formaven part del vocabulari de l'entrenament. "Hem descobert que el nostre model ho fa bé, cosa que demostra que realment està aprenent els elements bàsics del so o la veu", ha assegurat. Pel que fa a l'Ann, l'investigador ha considerat: "Escoltar la seva pròpia veu en temps gairebé real va augmentar el seu sentit d'encarnació".

Segons Cho, a l'equip ara són "optimistes" amb fer avenços d'aquesta mena a tots els àmbits. "Pel que fa a l'enginyeria, per exemple, continuarem impulsant l'algorisme per veure com podem generar la parla millor i més ràpid", ha dit. A més, els investigadors continuen centrats en crear expressivitat a la veu de sortida per reflectir els canvis de to o sonoritat que es produeixen durant la parla. Al respecte, Littlejohn ha expressat: "És un treball en curs, per intentar veure com de bé podem descodificar aquestes característiques paralingüístiques de l'activitat cerebral".
 

Imatge principal: els investigadors connecten la neuropròtesi de l'Ann a l'ordinador del sintetitzador de veu / Noah Berger - UC Berkeley
 

Segueix ElNacional.cat a WhatsApp, hi trobaràs tota l'actualitat, en un clic!