Las aplicaciones de la IA son casi infinitas y una de ellas es generar audios que simulan la voz de una persona real. De hecho, los creadores de ChatGPT (OpenAI) consideran tal uso un avance que, afirman, puede revolucionar para bien los servicios de atención al cliente, ya que los usuarios suelen preferir que les atienda una persona real en lugar de una grabación. Sin embargo, hay un problema: una vez creada la tecnología, siempre puede haber alguien que decida usarla para fines espurios.
Las estafas
Este tipo de estafas están ya en marcha y son numerosos los casos de personas que han recibido llamadas de familiares o, incluso, compañeros de trabajo que han acabado no siéndolo y que exigían traspasos de dinero o similares. La mejor manera de detectar estos fraudes es preguntar al presunto amigo o conocido algo que sólo esa persona que dice ser puede conocer. Si se trata de una estafa, seguro que cuelga de inmediato.
Detección automática
Los líderes en sistemas de recreación de voz son Google, OpenAI y Microsoft. Hoy, se puede replicar hasta la entonación, el ritmo y las inflexiones del habla humana, pero una empresa española ha desarrollado una aplicación que permite descubrir si estamos ante un audio sintético. Los responsables son un grupo de investigadores de la Universidad de Granada. Y ellos mismos nos explican cómo funciona: “Hemos generado una herramienta que integra soluciones propias y de terceros para discernir si un audio es real o está generado con algoritmos de inteligencia artificial. Una de las novedades que introduce esta herramienta es que no solo integra modelos generales, sino también modelos específicos generados en la UGR para voces de personalidades que son objetivo frecuente de desinformación”, explican los investigadores. De momento, han testado su creación con voces que simulan ser las de Felipe VI, Pedro Sánchez o Yolanda Díaz. Y funciona.