Música, habla y audición

En el momento en que entra en acción el lenguaje, el audífono que está diseñado para que el usuario lo perciba con la mayor claridad posible, considera que la música es ruido. ¿Por qué ocurre esto?. Por las características del habla. ¡Tiene solución!
En el momento en que entra en acción el lenguaje, el audífono que está diseñado para que el usuario lo perciba con la mayor claridad posible, considera que la música es ruido. ¿Por qué ocurre esto?. Por las características del habla. ¡Tiene solución!

Nos comentaba un paciente: "Ya sabes que soy un gran aficionado a la música, y con estos audífonos he vuelto a disfrutar de ella. Sin embargo, si alguien irrumpe en la habitación e inicia una conversación, la música que estoy escuchando pierde su calidad. ¿Por qué ocurre esto?"

 

Esto ocurre porque en el momento en que entra en acción el lenguaje, el audífono que está diseñado para que el usuario lo perciba con la mayor claridad posible, considera que la música es ruido. ¿Por qué ocurre esto?. Por las características del habla y de la música que ahora os comentamos.

 

Diferencia entre habla y música

Siempre nos sorprende cómo los distintos fabricantes de audífonos agrupan las dos palabras "habla" y "música" en una frase .... "El audífono X puede ayudar con el habla y la música"... y ser más joven y más guapo, les falta decir.

 

En muchos aspectos, la construcción del habla es mucho más sencilla que la música. 

El habla es secuencial y la música es simultánea.
El habla está formada por segmento seguidos unos de otros en el tiempo. 

En el habla no se dan sonidos de baja frecuencia y de alta frecuencia al mismo tiempo. Es como tocar el teclado de piano con una sola mano, estás tocando en el lado izquierdo, el medio, o el lado derecho, pero nunca ambos lados al mismo tiempo.

 

La música es simultánea; a diferencia del habla, percibimos sonidos de baja frecuencia y sonidos de alta frecuencia al mismo tiempo. Los músicos llaman a esto armonía. 

La música no puede ser como el habla (una región frecuencial a la vez), y el habla no puede ser como la música, (muchas regiones frecuenciales a la vez).

 

Por lo tanto, no pueden utilizarse las características espectrales del habla para definir respuesta de frecuencia amplificada o las características de los circuitos de compresión, cuando estamos escuchando música.

 

Los algoritmos que se han optimizado para escuchar el habla deben ser diferentes de los que están optimizados para escuchar música. Incluso algo tan simple como la gestión de feedback puede ser muy útil para el habla, pero desastroso para la música. Imagine un sistema de gestión de retroalimentación que confunda un armónico de alta frecuencia con la retroalimentación. La música se apagaría, sencillamente. Características digitales como el cancelador dinámico de feedback a sonidos de más de 2000 Hz, sería ligeramente mejor que si estuvieran activos en todas las frecuencias, pero incluso entonces, los armónicos de mayor frecuencia de la música serían anulados.

 

Otro algoritmo que ha demostrado ser de gran ayuda con el habla es la transposición de frecuencia o compresión frecuencial. Imagine el segundo o el tercer armónico de una nota que se desplaza hacia otro tono. El resultado no se correspondería con la realidad musical.

 

El mejor algoritmo de música para regiones cocleares gravemente dañadas no sería transponer ese grupo de frecuencias, sino simplemente reducir la ganancia en esa zona coclear dañada y aumentar la ganancia en el armónico donde no se supone que va a arruinar la escucha musical. Y de hecho, en la mayoría de los casos cuando hablamos de algoritmos para amplificar la música, menos suele ser más. Apagar las opciones digitales (direccionalidad, reducción de ruido...) y solo escuchar la música.

 

Una opción que desde luego es muy demandada por nuestros músicos, más aún, si la pérdida es unilateral, sería ampliar el ancho de banda aprovechable de los audífonos. Algo que técnicamente no se da, pero que ellos requieren para completar todos los matices que la música les aporta.

El habla es más modulada, la música es más regular

Realizado con un sonometro, primero registramos el habla, a continuación una melodía cantada.

Nuestro homenaje a la música

Os compartimos este fantástico vídeo de animación de Pablo Morales de los Ríos, "Historia de la Música". Un repaso completo de la música desde su nacimiento, hace 50.000 años con el hombre primitivo, hasta casi nuestros días.

Centro Auditivo Cuenca

Speech is not musica... and music is not speech

YouTube Channel Pablo Morales de los Rios

Escribir comentario

Comentarios: 2
  • #1

    Tomäs Salamea (domingo, 06 agosto 2017 18:22)

    tengo una lesión coqulear debido a que un petardo exploto muy cerca de mi oido derecho. Soy Músico y cuando tengo presentaciones debo tapar mi oido con unos tapones diseñados a mi medida esto ayuda mucho pero cuando canto escucho el cantar en mi cerebro y siento dolor en el timpano como si el sonido empujara hacia afuera, luego de haberme expuesto a tantos desiveles en el escenario y a pesar de utilizar los tapones me quedo con algo de diploacucia durante unos 2 dias.
    Mi pregunta es me estoy haciendo daño al cantar con los tapones puesto en mi oido?

  • #2

    Centro Auditivo Cuenca (martes, 29 agosto 2017 12:24)

    Buenos días, Tomás. Suponemos que el tapón que utilizas es un protector antiruido con filtro. Este tapón posiblemente esté creando una sensación de autofonía (oyes tu propia voz dentro) al impedir que tu voz entre de forma natural por vía aérea. Los cantantes lo que utilizan normalmente es un monitor in-ear, que facilita la percepción de la voz. No obstante, no creemos que pueda ser perjudicial, simplemente incómodo.
    Gracias por ponerte en contacto con nosotros. Un saludo, y muchos éxitos!! :-)