La UGR crea un sistema para detectar el enfado y el aburrimiento en la voz

La investigación está pensada para evitar la frustración habitual de los usuarios de los teléfonos de atención al cliente

Los investigadores de la UGR Zoraida Callejas y Ramón López.
Los investigadores de la UGR Zoraida Callejas y Ramón López.
B. R. / Granada

03 de noviembre 2011 - 01:00

Cuando uno percibe como el corazón se acelera, los músculos se tensionan, la ansiedad se concentra en el estómago y la sangre sonroja el usuario no tiene dudas que se ha cabreado con una máquina que lo deriva una docena de veces de un número a otro sin atender su petición. Sin embargo, el contestador no tiene percepción de que ha logrado algo para lo que específicamente no estaba programado: tocar las partes más nobles del cliente. Pero ahora la Universidad de Granada (UGR) ha desarrollado un nuevo sistema informático de reconocimiento de la emoción a través de la voz que puede hacer que estos cabreos formen parte de la historia.

Un grupo de investigadores de la UGR, en colaboración con la Universidad Carlos III de Madrid, han desarrollado un nuevo programa que permite a una máquina reconocer automáticamente cuál es el estado de ánimo de una persona que se está comunicando oralmente con ella, y adaptar en consecuencia la forma de responderle.

Gracias a este nuevo avance, la máquina podrá determinar cómo se siente el usuario (emoción) y cómo pretende continuar con el diálogo (intención).

Para detectar el estado emocional del usuario, los investigadores se centraron en las emociones negativas del mismo que pueden hacer que se frustre al hablar con un sistema automático. En concreto, su trabajo ha considerado el enfado, el aburrimiento y la duda. Para detectarlas automáticamente, utilizaron información sobre el tono de voz, la velocidad con la que se habla, la duración de las pausas, la energía de la señal de voz y así hasta un total de 60 parámetros acústicos distintos.

La principal novedad de este sistema respecto a los que están desarrollando otros investigadores en otras partes del mundo es que también emplea información acerca de cómo se ha desarrollado el diálogo para ajustar la probabilidad de que un usuario esté en un estado emocional u otro. Por ejemplo, el que el sistema no haya reconocido bien varias veces lo que su interlocutor desea decirle, o le ha pedido al usuario que repita información que ya había proporcionado, pueden ser factores que hagan que el usuario se enfade o se aburra de interactuar con el sistema. Es lo que la investigadora Zoraida Callejas denomina "historia del diálogo".

Junto a Callejas en esta investigación han trabajado Ramón López-Cózar, también del Departamento de Lenguajes y Sistemas Informáticos de la Universidad de Granada, en colaboración con el profesor David Griol, del Departamento de Informática de la Universidad Carlos III de Madrid. Todos ellos son miembros del grupo de investigación de Sistemas de Diálogo Hablado y Multimodal (SISDIAL), y este logro se enmarca en el área de la computación afectiva que desde hace años trabaja en programas informáticos que son capaces de procesar y responder a las emociones del interlocutor.

La clave de esos sistemas es que la máquina pueda prever cómo se va a desarrollar el resto del diálogo. "Para ello, hemos desarrollado un método estadístico, que aprende de diálogos previos cuáles son las acciones más probables que puede tomar un usuario en cada momento", destacan.

Una vez que se han detectado tanto emoción como intención, los científicos de la UGR proponen adaptar automáticamente el diálogo a la situación que atraviesa el usuario. Por ejemplo, si tiene dudas se le puede dar una ayuda más detallada, mientras que si se aburre esto puede ser contraproducente. Así se consiguen diálogos más cortos y con mayor éxito que los farragosos procesos actuales.

stats