Skip to main content

Verificado por Psychology Today

Cognición

¿Cómo se comunican tus ojos con tus oídos?

Las investigaciones revelan los sonidos que se producen en los oídos cuando mueves los ojos.

Los puntos clave

  • El cerebro integra información visual y auditiva para comprender mejor su entorno
  • Una investigación muestra que esta integración sensorial puede ocurrir en las primeras etapas de procesamiento
  • Cuandp movemos los ojos, se produce un sonido en los canales auditivos que indicaen qué dirección se movieron
  • El cerebro puede utilizar estas señales para alinear rápidamente los marcos de referencia visuales y auditivos

Recientemente asistí al Foro Internacional de Investigación Multisensorial (IMRF por sus siglas en inglés) en Reno, Nevada, donde científicos de todo el mundo se reunieron para compartir sus investigaciones sobre cómo interactúan entre sí los múltiples sentidos (visión, oído, tacto, etc.). Hubo charlas fascinantes sobre todo tipo de interacciones sensoriales, con un enfoque en las interacciones visual-auditivas: cómo nuestros sistemas visual y auditivo comparten información para procesar eventos de manera más eficiente.

Resulta que hay muchas regiones del cerebro y muchas etapas de procesamiento perceptual donde la información se combina o integra entre los sentidos. Algunos estudios muestran evidencia de integración tardía: integración que ocurre después de que la corteza visual ha procesado la información visual en una escena y la corteza auditiva ha procesado la información auditiva en una escena. Pero también hay mucha evidencia de que la información sensorial puede combinarse entre los sentidos mucho antes. En una fascinante presentación magistral de la profesora de la Universidad de Duke, Jennifer Groh, aprendí que nuestros ojos pueden en realidad comunicarse directamente con nuestros oídos cada vez que hacemos un movimiento ocular.

Para comprender por qué esa comunicación ojo a oído sería útil, es importante comprender cómo el cerebro combina la información visual y auditiva para estimar dónde están las cosas. La información visual que entra por nuestros ojos produce un mapa retinotópico del mundo basado en cómo la luz llega a nuestras retinas. Dependiendo de hacia dónde apuntan nuestros ojos en un momento dado, nuestras retinas reciben una imagen particular del mundo que es específica de esa dirección de mirada. Tan pronto como realizamos un nuevo movimiento ocular, toda la información visual se reasigna a diferentes áreas de nuestra retina. Sin embargo, podemos mantener una percepción estable del mundo, en parte porque nuestro cerebro sabe cuánto se mueven nuestros ojos cada vez y puede contrarrestar ese movimiento para mantener una representación estable de nuestro entorno.

Nuestros oídos funcionan de manera diferente. Cuando escuchamos un sonido, podemos estimar la dirección de la fuente del sonido en función de cómo la onda sonora llega a nuestros dos oídos. Por ejemplo, un sonido que proviene del lado derecho llegará a tu oído derecho una fracción de milisegundo antes y un poquito más fuerte que un sonido que proviene del lado izquierdo. Según la diferencia en el tiempo y el volumen entre la información auditiva procesada por nuestros dos oídos, el cerebro puede estimar la dirección general de donde proviene un sonido, en relación con la posición de nuestra cabeza.

Pero para integrar la información de la visión y la audición, nuestro cerebro necesita combinar de alguna manera la información visual basada en un marco de referencia de la retina con información auditiva basada en un marco de referencia de la cabeza. Cómo el cerebro hace esto de manera tan rápida y eficiente sigue siendo un misterio, pero la investigación realizada por los equipos del profesor Groh ofrece nuevas pistas convincentes.

Su equipo de investigación demostró que cada vez que nuestros ojos se mueven, se produce un pequeño sonido producido en nuestros canales auditivos llamado “oscilaciones del tímpano relacionadas con el movimiento ocular” (o EMREO por sus siglas en inglés). Descubrieron estas ondas sonoras colocando pequeños micrófonos dentro de los canales auditivos de las personas, donde podían captar claramente los sonidos. Este video presenta versiones amplificadas de estos sonidos relacionados con el movimiento ocular:

Curiosamente, estos sonidos no sólo están presentes, sino que también son informativos sobre los movimientos oculares que los produjeron. El equipo de investigación pudo decodificar cuánto se movían los ojos y en qué dirección, basándose en la amplitud y frecuencia de estos EMREO. En otras palabras, pudieron reconstruir la dirección y la magnitud de un movimiento ocular basándose únicamente en los sonidos que se producen en el canal auditivo.

Se necesitan más investigaciones para determinar si el cerebro realmente depende de estas señales auditivas para ayudar en su representación del mundo, pero el trabajo del profesor Groh revela que la integración multisensorial puede comenzar en las etapas más tempranas del procesamiento sensorial.

A version of this article originally appeared in English.

publicidad
Acerca de
Nicolas Davidenko Ph.D.

El Doctor Nicolas Davidenko, es Profesor Asociado de Psicología en la Universidad de California, Santa Cruz, donde enseña cursos de percepción, ilusiones y reconocimiento facial.

Más de Nicolas Davidenko Ph.D.
Más de Psychology Today
Más de Nicolas Davidenko Ph.D.
Más de Psychology Today