Les aplicacions de l'IA són gairebé infinites i una d'elles és generar àudios que simulen la veu d'una persona real. De fet, els creadors de ChatGPT (OpenAI) consideren tal ús un avenç que, afirmen, pot revolucionar per bé els serveis d'atenció al client, ja que els usuaris solen preferir que els atengui una persona real en lloc d'un enregistrament. Tanmateix, hi ha un problema: una vegada creada la tecnologia, sempre hi pot haver algú que decideixi utilitzar-la per a finalitats espúries.
Les estafes
Aquest tipus d'estafes estan ja en marxa i són nombrosos els casos de persones que han rebut trucades de familiars o, fins i tot, companys de feina que han acabat no sent-ho i que exigien traspassos de diners o similars. La millor manera de detectar aquests fraus és preguntar al presumpte amic o conegut alguna cosa que només aquesta persona que diu ser pot conèixer. Si es tracta d'una estafa, segur que penja immediatament.
Detecció automàtica
Els líders en sistemes de recreació de veu són Google, OpenAI i Microsoft. Avui, es pot replicar fins a l'entonació, el ritme i les inflexions de la parla humana, però una empresa espanyola ha desenvolupat una aplicació que permet descobrir si estem davant d'un àudio sintètic. Els responsables són un grup d'investigadors de la Universitat de Granada. I ells mateixos ens expliquen com funciona: "Hem generat una eina que integra solucions pròpies i de tercers per discernir si un àudio és real o està generat amb algoritmes d'intel·ligència artificial. Una de les novetats que introdueix aquesta eina és que no només integra models generals, sinó també models específics generats en l'UGR per a veus de personalitats que són objectiu freqüent de desinformació", expliquen els investigadors. De moment, han testat la seva creació amb veus que simulen ser les de Felip VI, Pedro Sánchez o Yolanda Díaz. I funciona.