Seguro te ha pasado: dices algo totalmente inocente y alguien te responde con un “¿Y ese tono?”. O peor aún, te mandan un mensaje de texto y te quedas analizando si el “ok” era normal, cortante o directamente un insulto.
PUBLICIDAD
Te puede interesar: [Este es el gen que podría explicar un misterio del ser humano: Por qué podemos hablar]
Pues bien, la ciencia acaba de confirmar lo que todos ya sospechábamos: las palabras no lo son todo, el tono de voz es clave para entender el verdadero significado de lo que decimos.
Un estudio publicado en Nature Communications dice que nuestro cerebro no solo escucha las palabras, sino que va más allá: también analiza las subidas y bajadas de tono, el énfasis y la entonación para entender si lo que alguien dice es una pregunta, una afirmación o una indirecta pasivo-agresiva.
Y la clave de este proceso está en una región del cerebro que hasta ahora no había recibido tanto crédito: la circunvolución de Heschl.
Cuando el tono lo es todo
La misma frase puede significar cosas completamente diferentes según cómo se diga. Por ejemplo:
- “Ah, qué bien” con un tono neutro = Una respuesta educada.
- “Ah, qué bien” con tono sarcástico = Claramente no está bien y alguien va a morir.
- “Ah, qué bien” con un tono dudoso = No me lo creo, pero seguiré la corriente.
Estos cambios en la entonación son parte de la prosodia, la parte del lenguaje que no está en las palabras en sí, sino en cómo las pronunciamos. Los científicos han descubierto que el cerebro procesa estas variaciones como si fueran información estructurada, no simples sonidos.
PUBLICIDAD
El experimento: conectando cerebros a lo Matrix
Para entender cómo el cerebro hace esto, los investigadores hicieron algo increíble: colocaron electrodos directamente en el cerebro de 11 personas que estaban siendo monitoreadas para cirugía de epilepsia (obviamente, con su consentimiento).
Mientras los pacientes escuchaban Alicia en el País de las Maravillas, los científicos registraron qué partes del cerebro se activaban ante los cambios de tono.
El hallazgo fue claro: la circunvolución de Heschl no solo escuchaba los cambios de tono, sino que los organizaba en categorías de significado, como si fuera un diccionario emocional de la entonación.
¿Solo los humanos pueden hacer esto?
Para comprobar si esto era una habilidad exclusiva de nuestra especie, los científicos decidieron hacer la misma prueba con un mono macaco.
El mono podía escuchar los tonos, pero no los categorizaba de la misma forma que los humanos. En otras palabras, no entendía si un tono sonaba sarcástico, emocionado o como un regaño.
Esto demuestra que la capacidad de procesar tonos con significado es algo único de los humanos, probablemente desarrollado con la evolución del lenguaje. Básicamente, nuestro cerebro ha aprendido a interpretar indirectas mejor que cualquier otro animal.
Aplicaciones en la vida real: de IA con emociones a evitar malentendidos
Entender cómo el cerebro maneja la prosodia puede revolucionar varias áreas:
- Trastornos del lenguaje: Podría ayudar a personas con autismo, afasia o problemas de aprendizaje a comprender mejor los tonos y mejorar la comunicación.
- Asistentes de voz más inteligentes: Siri y Alexa podrían dejar de sonar como robots y empezar a captar sarcasmo y emociones en la voz humana.
- Evitar malentendidos en la vida diaria: Tal vez en el futuro haya un detector de tonos para saber si alguien realmente está bien o solo lo dice por compromiso.
El lenguaje es una sinfonía y nuestro cerebro es el director
Cuando hablamos, no solo transmitimos palabras, sino también emociones, intenciones y matices que pueden cambiar completamente el mensaje.
Te puede interesar: [Los beneficios de una “desintoxicación digital” podrían ser más de los esperados, dice un estudio]
Así que la próxima vez que alguien te diga “No fue lo que dijiste, fue el tono en que lo dijiste”, ya sabes que no es exageración, es neurociencia.