Ciencia
El cerebro procesa el habla y su eco por separado
El texto se ha copiado correctamente en el portapapeles
Los ecos pueden hacer que el habla sea más difícil de entender y desconectarlos en una grabación de audio es un problema notoriamente difícil, pero el cerebro humano parece resolver el problema con éxito separando el sonido y su eco.
Esa es la conclusión de un estudio liderado por Jiaxin Gao, de la Universidad de Zhejiang (China), y publicado este jueves en la revista ‘PLOS ONE’.
Las señales de audio en reuniones y auditorios en línea que no están diseñados adecuadamente a menudo tienen un eco con un retraso de al menos 100 milisegundos con respecto al discurso original.
Estos ecos distorsionan enormemente el habla, lo que interfiere con las características del sonido que varían lentamente y que son más importantes para comprender las conversaciones. Sin embargo, las personas aún comprenden de manera confiable el habla ecoica.
Para comprender mejor cómo el cerebro permite esto, los autores utilizaron magnetoencefalografía para registrar la actividad neuronal mientras participantes humanos escuchaban una historia con y sin eco.
Después, compararon las señales neuronales con dos modelos informáticos: uno que simula el cerebro adaptándose al eco y otro que simula el cerebro separando el eco del habla original.
UN 95% DE PRECISIÓN
Los participantes entendieron la historia con más del 95% de precisión, independientemente del eco.
Los investigadores observaron que la actividad cortical sigue los cambios de energía relacionados con el habla directa, a pesar de la fuerte interferencia del eco.
La simulación de la adaptación neuronal capturó solo parcialmente la respuesta cerebral observada. La actividad neuronal se explicó mejor mediante un modelo que dividió el habla original y su eco en flujos de procesamiento separados.
Esto siguió siendo cierto incluso cuando se pidió a los participantes que dirigieran su atención hacia una película muda e ignoraran la historia, lo que sugiere que no se requiere atención de arriba hacia abajo para separar mentalmente el discurso directo y su eco.
Los investigadores afirman que la segregación del flujo auditivo puede ser importante tanto para identificar a un hablante específico en un ambiente lleno de gente como para comprender claramente a un hablante individual en un espacio reverberante.
“Los ecos distorsionan fuertemente las características sonoras del habla y crean un desafío para el reconocimiento automático del habla. El cerebro humano, sin embargo, puede separar el habla de su eco y lograr un reconocimiento fiable del habla ecoica”, concluye el estudio.
(SERVIMEDIA)
15 Feb 2024
MGR/clc