La tecnología que explora nuestras emociones y puede llegar a reconocer como nos sentimos ha dejado de ser una utopía. Así lo demuestran las inversiones en este mercado, que según el último estudio publicado por MarketsandMarkets crecerán en los próximos cinco años desde los 22,2 billones de dólares invertidos en el 2019 hasta los 90 billones de dólares que se estima que se invertirán en el 2024. Según los expertos, este crecimiento extraordinario se explica por las posibilidades que comporta el desarrollo de la computación afectiva: esta nueva tecnología promete desde cambiar nuestras relaciones con las empresas, haciéndolas más agradables y cálidas, hasta mejorar la experiencia que tenemos de conducción adaptando la temperatura o la música a nuestro estado emocional, pasando por proporcionar apoyo emocional e incluso detectar precozmente problemas psicológicos en las primeras fases, entre otras tareas de una larga lista.
"Hay muchas maneras de aplicar la computación afectiva a nuestras vidas", señala David Masip, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la Universidad Abierta de Catalunya (UOC). "Hay aplicaciones comerciales o industriales bastante factibles a corto plazo, como la publicidad reactiva, la extracción de información emocional como mecanismo de retorno honesto, automatizado y constante en aplicaciones de ocio o experiencia de usuario, etc. Todas tienen que permitir mejorar los servicios que recibimos diariamente. Pero el gran salto se tiene que producir cuando disciplinas como la social robotics o la human-robot interaction estén integradas en nuestras vidas y puedan incorporar conceptos de computación afectiva", explica.
Se refiere a uno de los objetivos de este campo de investigación: conseguir que las máquinas proporcionen servicio "de una manera ubicua y natural en las tareas diarias", anticipándose a nuestras necesidades, cosa posible si son capaces de entendernos y saber nuestro estado de ánimo, momento en que podrían tomar decisiones en consecuencia. "Eso abre muchas posibilidades en un mundo en que la población cada vez vive más años y envejece gradualmente, para no hablar de las aplicaciones en el ámbito de la salud," explica el profesor de la UOC e investigador del grupo SUNAI (Scene Understanding and Artificial Intelligence Lab).
En este último punto se refiere Àgata Lapedriza, profesora de los Estudios de Informática, Multimedia y Telecomunicación de la UOC, que considera que el área sanitaria será una de las más beneficiadas. "Ya hay productos comerciales, como los brazaletes de sensores de Empathica, que ayudan a monitorar pacientes que sufren ataques de epilepsia. Además, la computación afectiva también se podría aplicar a la detección precoz de depresión y demencia, o a la reducción del estrés. Otro ejemplo es el trabajo que se hace de detección, en redes sociales, de personas que están en riesgo de suicidarse, con el objetivo de poder ofrecerles ayuda. Y también se podría utilizar para desarrollar tecnologías destinadas a personas en el espectro del autismo o para conseguir un cambio de hábitos y todo (por ejemplo, dejar de fumar o comer de manera más saludable)", explica Lapedriza, la cual menciona otro posible campo de aplicación en que esta área de investigación puede hacer contribuciones importantes: la educación.
"Si pensamos en el uso de la tecnología para la educación, como tutores virtuales o la robótica social para la educación, la dotación de estas tecnologías con inteligencia emocional puede ayudar mucho. Por ejemplo, puede ayudar a detectar la frustración, cuando un estudiante no entiende alguna cosa, o a diseñar y probar técnicas para crear interés, despertar la curiosidad o captar la atención. Una máquina sin inteligencia emocional no puede saber si le prestas atención, ya que reconocer atención es reconocer un tipo de estado emocional", apunta a Àgata Lapedriza.
¿Cómo funciona la computación afectiva?
En una secuencia de la película Her (Spike Jonze, 2013), el sistema operativo Samantha (Scarlett Johansson) dice: "Lo quiero aprender todo sobre todo, lo quiero absorber todo, me quiero descubrir a mí misma". Habla con Theodore (Joaquin Phoenix), que se acabará enamorando de este nuevo y avanzado asistente virtual que promete ser una entidad intuitiva con cada usuario. Y es capaz de conseguirlo porque la interlocutora virtual ha desarrollado un concepto revolucionario para una máquina: empatía.
Esta palabra es clave en la inteligencia artificial de las emociones. Como explica la también investigadora del grupo SUNAI, Àgata Lapedriza en el artículo ¿Qué se la computación afectiva?, la posibilidad de que un robot o una máquina pudieran desarrollar empatía fue una de las razones que naciera el área de investigación denominada computación afectiva, también conocida como inteligencia artificial emocional. De hecho, Lapedriza señala que, aunque es un campo que se sitúa en la informática, se trata de un área "multidisciplinar que involucra, entre otros ámbitos, la ciencia cognitiva y la psicología," y la define como la disciplina que "estudia cómo se crean máquinas que puedan reconocer e interpretar apropiadamente las emociones humanas y responder".
¿Cómo se puede conseguir hacer realidad estas máquinas? Según explica la profesora, se trata de captar señales relacionadas con nuestras emociones. Y para eso se pueden utilizar cámaras que observen los movimientos faciales o los gestos de una persona, sensores que capturen señales fisiológicas como el ritmo cardiaco o la respiración, micrófonos que analicen los cambios de entonación... Todas estas señales transmiten información que por medio de técnicas de aprendizaje automático (machine learning) establecen patrones que determinan el estado emocional de una persona.
¿Cuándo llegará?
Aunque esta tecnología suena todavía lejana para la mayor parte de la sociedad, la verdad es que está a punto de desembarcar en nuestro día a día, como mínimo en algunas de sus versiones. Como explica el profesor David Masip, en la actualidad hay aplicaciones en la industria del marketing y ha emprendido como la norteamericana Affectiva que ya las comercializan. Otro ejemplo es la australiana Akin, con la cual la NASA trabaja para que un asistente de inteligencia artificial pueda dar apoyo emocional a los astronautas. "El interés industrial es creciente, y en aplicaciones específicas ya se utiliza", apunta al profesor.
No obstante, para que los robots estén completamente integrados en nuestras vidas todavía queda bastante camino por recurrir. "La computación afectiva aspira a ser ubicua. Necesitamos que los robots nos miren y nos entiendan de la misma manera cómo los humanos nos entendemos entre nosotros. Y por eso, lamentablemente, todavía queda mucho tiempo", señala David Masip.