noviembre 25, 2024

Científicos revelan cómo el cerebro procesa los sonidos escuchados

Científicos revelan cómo el cerebro procesa los sonidos escuchados

Un descubrimiento reciente explica cómo lo tenemos cerebro Maneja conversaciones en ambientes ruidosos y podría tener un impacto significativo en el desarrollo de audífonos más eficientes.

Vinay Raghavan, investigador de la Universidad de Columbia en Nueva York, ofrece una interesante explicación de cómo el cerebro procesa la percepción del habla. Según él, la idea predominante era que solo la voz de la persona a la que prestamos atención es procesada por el cerebro.

Sin embargo, Raghavan cuestiona esta noción, afirmando que cuando alguien grita en un lugar lleno de gente, no lo ignoramos incluso cuando estamos enfocados en otra persona.

Los expertos están analizando cómo el cerebro humano procesa los sonidos

Durante el estudio controlado por Vinay Raghavan y su equipo, se colocaron electrodos en los cerebros de siete personas durante ataques epilépticos, lo que permitió monitorear la actividad cerebral.

Durante este procedimiento, los participantes estuvieron expuestos a un clip de audio de 30 minutos con dos sonidos superpuestos.

Los participantes se mantuvieron despiertos durante la cirugía y se dirigió su atención a alternar entre los dos sonidos del sonido. Una de las voces era de hombre, la otra de mujer.

Las voces superpuestas hablaban simultáneamente, a volúmenes similares, pero en ciertos momentos del clip una voz era más fuerte que la otra, imitando la diferencia de volumen que se encuentra en las conversaciones de fondo en entornos concurridos.

El equipo de investigación utilizó los datos obtenidos de la actividad cerebral de los participantes para desarrollar un modelo que predice cómo el cerebro procesa los sonidos de diferentes tamaños y cómo esto podría diferir según el sonido en el que los participantes fueron entrenados para concentrarse.

READ  Si tienes un Chevrolet necesitas saber esto hoy

resultado de búsqueda

Los resultados revelaron que los dos volúmenes más altos estaban codificados tanto en la corteza auditiva primaria, que es responsable de la percepción consciente del sonido, como en la corteza auditiva secundaria, que es responsable de procesar el sonido más complejo.

Este resultado fue sorprendente, ya que se indicó a los participantes que no se concentraran en el sonido más fuerte, pero el cerebro procesó esta información de manera significativa.

Según Raghavan, este estudio es innovador al mostrar, a través de la neurociencia, que el cerebro codifica la información del habla incluso cuando no le estamos prestando atención activamente.

Este descubrimiento abre una nueva vía para entender cómo el cerebro procesa los estímulos a los que no dirigimos nuestra atención.

Tradicionalmente, se ha creído que el cerebro procesa selectivamente solo aquellos estímulos en los que nos enfocamos conscientemente. Sin embargo, los resultados de este estudio desafían este punto de vista, mostrando que el cerebro continúa codificando información incluso cuando estamos distraídos o ocupados en otras tareas.

Los resultados también revelaron que el cerebro solo procesaba el sonido más bajo en la corteza primaria y secundaria cuando se instruía a los participantes para que centraran su atención en ese sonido específico.

Además, sorprendentemente, el cerebro tardó 95 milisegundos adicionales en procesar este sonido como habla en comparación con el tiempo que se les pidió a los participantes que se concentraran en el sonido más fuerte.

Aún según Vinay Raghavan, los resultados del estudio muestran que el cerebro probablemente usa diferentes controles para codificar y representar sonidos en diferentes volúmenes durante una conversación. Esta comprensión se puede aplicar en el desarrollo de audífonos más efectivos.

READ  ¡Tu Whatsapp puede parar! Estos formularios sin la aplicación en febrero

El experto sugiere que si se puede crear un audífono que sea capaz de identificar a la persona a la que el usuario está prestando atención, entonces sería posible aumentar el volumen solo de esa persona específica.

Un avance de este calibre puede mejorar en gran medida la experiencia auditiva en entornos ruidosos, lo que permite al usuario concentrarse mejor en la fuente de sonido de interés.