Si hasta el momento las respuestas entregadas por las voces informáticas parecen algo frías y sin sentimiento, es porque actualmente las computadoras simplemente buscan entregar un mensaje directo a través de un voz pregrabada o sintetizada que no toma en cuenta otra cosa que los datos a comunicar, evidenciando así que hablamos con un robot.
Pero ahora científicos de la Universidad Carlos III de Madrid,en conjunto con la FECYT, la Universidad de Granada, la Red de Unidades de Cultura Científica (UCC) y el Ministerio de Ciencia e Innovación del Gobierno de España, han ideado un sistema que permite a una comunicación computarizada parecer algo más natural gracias al reconocimiento del estado de ánimo del ser humano, logrando que la máquina entienda algo más allá de lo que se quiere comunicar con las palabras objetivas.
Con esto, un sistema de diálogo informático ya no solo reconoce las palabras, sino que también las emociones, junto con mostrar la capacidad de anticiparse a lo que vendrá en base a lo que se ha hablado hasta el momento. Esto se logra a través de la lectura de la voz del ser humano, analizando el tono de voz, la velocidad del habla y la duración de las pausas utilizadas, entre otros factores que ayudan a revelar cómo nos sentimos mientras hablamos con la computadora.
Finalmente, las respuestas serían más consistentes según el contexto y además entregadas en forma natural, lo que podría romper una brecha incómoda entre el usuario y el dispositivo electrónico a la hora de comunicarse a través del habla con él, junto con ofrecer mejor funcionalidad a la hora de reemplazar interfaces tradicionales como el mouse y teclado, ya que el intercambio de información sería más expedito y exacto.