Demasiado a menudo, tan solo poniéndonos unos auriculares en las orejas, no es suficiente para escuchar con claridad aquello que volamos y, a la vez, evitar interrupciones o suciedad a nivel de audio del entorno donde estamos, por lo cual, se nos hace difícil percibir perfectamente lo que realmente queremos escuchar a través de los auriculares. Estos obstáculos, también se están investigando con el fin de resolverse gracias a la inteligencia artificial. De hecho, un nuevo prototipo de sistema d'IA pretende solucionar este problema. Llamado Target Speech Hearing (audición de habla objetivo), el sistema permite a los usuarios seleccionar a una persona cuya voz seguirá siendo audible aunque se anulen todos los otros sonidos.

Apple ya trabaja en algunas pruebas

Aunque la tecnología es actualmente una prueba de concepto, sus creadores dicen que están en conversas para incorporarla a marcas populares de auriculares con cancelación de ruido y también están trabajando para que esté disponible para audífonos. Precedentes recientes ya encontramos. La última edición de los AirPods Pro de Apple, por ejemplo, ajusta automáticamente los niveles de sonido para los usuarios, detectando cuando están en conversación, por ejemplo, pero el usuario tiene poco control sobre a quién escuchar o cuando pasa eso.

Pero, ahora, un equipo de la Universidad de Washington ha desarrollado un sistema de inteligencia artificial que permite a un usuario con auriculares mirar a una persona que habla durante tres o cinco segundos para "inscribirla". El sistema cancela todos los otros sonidos del entorno y reproduce solo la voz del altavoz inscrito en tiempo real, incluso cuando el oyente se mueve en lugares ruidosos y ya no se enfrenta al altavoz. El equipo presentó sus conclusiones el 14 de mayo en Honolulu a la Conferencia ACM CHI sobre factores humanos en sistemas informáticos. El código del dispositivo de prueba de concepto está disponible para que otros puedan construirlos. El sistema no está disponible comercialmente.

¿Cómo funciona?

"Ahora tendemos a pensar en la IA como en chatbots basados en web que responden a preguntas", dijo el autor principal Shyam Gollakota , profesor de la UW a Paul G. Allen School of Computer Science & Engineering. "Pero en este proyecto, desarrollamos IA para modificar la percepción auditiva de cualquier persona que lleve auriculares, teniendo en cuenta sus preferencias. Con nuestros dispositivos ahora podéis escuchar un único altavoz con claridad, incluso si estáis en un entorno ruidoso con mucha gente hablando", añadió.

Para utilizar el sistema, una persona que lleva unos auriculares comerciales equipados con micrófonos toca un botón mientras dirige la cabeza hacia alguien que habla. Las ondas sonoras de la voz de este altavoz tendrían que llegar a los micrófonos de los dos lados de los auriculares simultáneamente; hay un margen de error de 16 grados. Los auriculares envían esta señal a un ordenador integrado, donde el software de aprendizaje automático del equipo aprende los patrones vocales del altavoz deseado. El sistema se engancha a la voz de este altavoz y sigue reproduciéndola al oyente, incluso mientras la pareja se mueve. La capacidad del sistema de centrarse en la voz registrada mejora a medida que el orador sigue hablando, dando al sistema más datos de entrenamiento.