Hola, soc Esther Checa i avui m'agradaria explicar com Microsoft, podrà clonar la teva veu per poder tenir reunions per Teams en múltiples idiomes. Aquesta companyia ha anunciat una nova eina per a Teams anomenada Interpreter, que permetrà als usuaris clonar les seves veus i utilitzar-les en traduccions de veu en temps real durant reunions, podent facilitar la comunicació fins i tot en nou idiomes diferents.
Per què és important això? Aquesta tecnologia s'espera que permeti una comunicació multilingüe en temps real, facilitant una experiència més fluida i personalitzada en reunions virtuals en múltiples idiomes. Tanmateix, també planteja desafiaments importants en matèria de seguretat, com per exemple, el risc de suplantació d'identitat mitjançant l'ús indegut de la clonació de veus.
Coneixes Interpreter?
Aquest any Microsoft ha presentat Interpreter per a Teams, una funció que permetrà la traducció de veu en temps real en anglès, francès, alemany, italià, i espanyol, entre altres. En paraules de l'equip directiu de Microsoft, aquesta funcionalitat pretén reduir les barreres lingüístiques en oferir traduccions més immersives. A més, la companyia assegura que l'eina no emmagatzema dades biomètriques, no altera les emocions expressades en la veu, i pot ser desactivada des de la configuració de Teams. Per habilitar aquesta característica, es requereix el consentiment explícit de l'usuari.
Aquesta solució començarà a implementar-se el 2025, i estarà disponible per als subscriptors de Microsoft 365. Malgrat el seu potencial innovador, aquesta tecnologia no està exempta de desafiaments, alguns d'aquests poden ser les limitacions lèxiques, ja que la traducció automàtica generada per intel·ligència artificial sol mancar de la riquesa lèxica que té la llengua, i tenen dificultats per interpretar col·loquialismes i matisos culturals, la qual cosa pot limitar la seva precisió en certs contextos. Tot i això, l'escalabilitat fa que aquestes solucions resultin atractives per a les companyies.
Coneixes Voice Engine?
Si bé la clonació de veu pot oferir una oportunitat per apropar els usuaris, també té riscos associats amb els deep fakes, suposant una amenaça real com la desinformació i els fraus. OpenAI, per exemple, va decidir no llançar la seva solució de veu Voice Engine, a causa d'aquests riscos. Per exemple, aquesta tecnologia, amb només sentir una veu durant 15 segons, era capaç de crear una còpia sintètica de l'esmentada veu, i imitar el seu to.
Entre les aplicacions potencials de Voice Engine es trobava l'assistència en la lectura mitjançant veus naturals, la traducció de contingut, mantenint l'accent natiu del parlant, i el suport a pacients en la recuperació de la seva veu. Tanmateix, OpenAI continua avaluant el seu desplegament per mitigar possibles usos indeguts.
Tanmateix, la companyia haurà d'implementar mesures robustes de seguretat i garantir la transparència en l'ús d'aquesta eina per mitigar aquests perills. L'adopció reeixida dependrà tant de la tecnologia, com de la confiança que els usuaris puguem dipositar en aquesta.