Skip to main content

Verificado por Psychology Today

Neurociencia

Decodificando Pink Floyd en tu cerebro

Los científicos han leído la música que las personas escuchan basándose solo en la actividad cerebral..

Beatriz Miller / Unsplash
Source: Beatriz Miller / Unsplash

Ya es una noticia vieja que los científicos pueden leer aspectos de tu experiencia consciente interna mediante el registro de señales neuronales. Pero un nuevo estudio de este tipo que involucra música sigue siendo un logro notable. Antes de llegar al último trabajo, quiero dar una breve historia de esta área de investigación.

El inicio: lectura de imágenes del sistema visual

El primer resultado de gran éxito de este tipo llegó en 2008 de Kendrick Kay, Jack Gallant y sus colegas de la Universidad de California, Berkeley, quienes utilizaron imágenes de resonancia magnética funcional (fMRI) no invasivas para adivinar cuál de las mil imágenes estaba viendo un sujeto. La idea experimental básica que explotaron se remonta a la investigación de Yukiyasu Kamitani y Frank Tong, y por separado por grupos dirigidos por Jim Haxby y John-Dylan Haynes a principios de la década de 2000.

En el estudio de Berkeley de 2008, los investigadores tuvieron acceso anticipado a las imágenes y construyeron un modelo de cómo pensaban que el flujo sanguíneo en el cerebro respondería a cada una de las imágenes. Luego, cuando midieron el flujo sanguíneo en el cerebro mientras los sujetos veían las imágenes, simplemente tenían que encontrar la imagen cuya respuesta modelada se ajustara mejor al patrón observado de flujo sanguíneo.

Los investigadores pudieron identificar correctamente más del 90 por ciento de las imágenes vistas por los sujetos basándose únicamente en las mediciones del flujo sanguíneo en el cerebro. Esto se redujo en gran medida al hecho de que las imágenes que caen sobre los ojos poseen patrones bastante diferentes de luz y oscuridad en el espacio, lo que conduce a patrones correspondientes de actividad neuronal más alta o más baja en el cerebro visual (un fenómeno llamado retinotopía). Estoy haciendo que esto suene fácil, pero fue todo un logro.

Lectura cerebral 2.0

Desde entonces, la misma técnica básica se ha aplicado de forma no invasiva a muchos otros tipos de percepción y actividad cognitiva, incluido el habla recitada en silencio, las palabras vistas como texto e incluso los sueños.

En la mayoría de los casos, los científicos han proporcionado a los sujetos algún conjunto de estímulos, para los cuales habían desarrollado un modelo de respuesta predicha con anticipación. La tarea de los investigadores fue adivinar el orden en que se presentaron los estímulos, basándose solo en las respuestas cerebrales medidas, generalmente en forma de mediciones de fMRI del flujo sanguíneo. Dadas las leyes de la probabilidad, las posibilidades de una conjetura afortunada generalmente han sido bajas.

Esto ha tenido mucho éxito. Quizás lo más importante es que hay una clara "verdad fundamental" que los investigadores están tratando de recuperar, a saber, la imagen física, el sonido o la palabra.

Sin embargo, en el caso de la decodificación de sueños, que no dejan rastro físico, los investigadores tuvieron que ser más creativos. Un estudio de 2013 sobre los sueños, dirigido por Kamitani, intentó hacer coincidir los patrones de actividad medidos mientras las personas veían imágenes de una de las 20 categorías de imágenes (hombre, computadora, automóvil, etc.) para los informes verbales que hacían del contenido de sus sueños. Esto se hizo con EEG (electrodos superficiales colocados en el cuero cabelludo) en el cerebro visual. El equipo de Kamitani pudo adivinar si cierto tipo de imágenes (por ejemplo, un hombre) aparecía en un sueño, con una precisión de aproximadamente 75 a 80 por ciento.

En algunos casos, como el trabajo de Tom Mitchell en la Universidad Carnegie Mellon, otro pionero en esta área, los modelos pueden extrapolar más allá de los estímulos con los que fueron entrenados. En el trabajo de Mitchell, los significados de los pares palabra-imagen no estudiados previamente podrían predecirse, pero no tan bien como las imágenes decodificadas en el estudio de Kendrick Kay et al. de 2008.

Lectura cerebral en pacientes con epilepsia preoperatoria

Esto nos lleva al último estudio, dirigido por Robert Knight y sus colegas, también de UC Berkeley. Aquí, la innovación fue decodificar las señales registradas por electrodos colocados directamente en los cerebros de pacientes con epilepsia preoperatoria.

Los pacientes, que sufren convulsiones debilitantes, recurrentes y resistentes a los medicamentos, son equipados por neurocirujanos con electrodos muy sensibles para localizar la parte del cerebro que genera la convulsión (el "foco"). Los pacientes permanecen en el hospital durante días o semanas mientras los cirujanos recopilan datos. El objetivo es encontrar el trozo de cerebro ofensivo y eliminarlo en una operación quirúrgica. (Para tener una idea de cómo se hace esto, consulta este artículo en inglés). La extensa recopilación de datos ayuda a garantizar que se extirpe la pieza de cerebro más pequeña posible.

Mientras los pacientes y sus médicos esperan las convulsiones, los científicos pueden realizar experimentos para aprovechar esta oportunidad de grabar directamente desde el cerebro humano, lo que normalmente no es una opción. Los pacientes tienen la oportunidad de contribuir a la comprensión científica y mantenerse ocupados durante una estadía en el hospital que de otro modo sería larga y difícil.

Hacer todo este trabajo es una tarea enorme, pero en el pasado, ha valido la pena. El famoso artículo celular "Jennifer Anniston" de Itzhak Fried y sus colegas, que encontró neuronas en el cerebro que responden a la cara de la actriz, fue uno de los primeros en hacer uso de pacientes preoperatorios.

Las ondas cerebrales cantan Pink Floyd

Knight y sus colegas registraron señales neuronales en el lóbulo temporal, a menudo una fuente de convulsiones, así como en el lóbulo frontal. Los pacientes escucharon pasivamente la canción de Pink Floyd "Another Brick in the Wall, Part 2", que dura aproximadamente tres minutos. Registraron la actividad con más de 2,500 electrodos, colocados en una cuadrícula sobre la materia gris de los pacientes.

En las grabaciones, buscaron variaciones rítmicas en la actividad eléctrica que correspondieran a la melodía de conducción de la canción "We don't need no education..."— de hecho, esta canción aparentemente fue elegida debido a este patrón inconfundible y claramente repetido. Después de una gran cantidad de procesamiento de señales, utilizaron un sistema de aprendizaje automático (léase: IA) llamado perceptrón multicapa para producir una mejor suposición de cómo suenan las señales neuronales". Puedes escuchar su reconstrucción aquí.

Lo que significa todo esto

El éxito de este tipo de investigación en la lectura de experiencias internas puede ser discordante, especialmente si no has seguido su desarrollo a lo largo de los años.

Puede parecer que estamos al borde de un territorio peligroso donde alguien podría leer lo que estás pensando sin tu conocimiento. Afortunadamente, todo el trabajo existente involucra métodos de imágenes cerebrales (fMRI, EEG,etc.) eso no se puede hacer subrepticiamente o a distancia. El trabajo de Pink Floyd también requirió una cirugía cerebral mayor que implicó la apertura temporal de una sección del cráneo. Además, todo este trabajo requiere un modelo altamente personalizado del cerebro de cada sujeto, así como conocer los estímulos que se "leerán" de antemano.

Para mí, la pregunta importante es: ¿qué nos dice esto sobre los cerebros?

Poco después de que publicara su trabajo seminal sobre la decodificación de imágenes en el cerebro, discutí con Kendrick Kay el significado más profundo de sus resultados. Tenía claro que su trabajo representaba un problema de ingeniería. La tarea era, ¿podemos hacerlo? No se trataba principalmente de descubrir nuevos fenómenos. El principal conocimiento neurobiológico que él y sus colegas explotaron, la retinotopía en la corteza visual, se conocía desde hacía un siglo. Sin embargo, fue un gran logro y uno que ha generado mucho trabajo posterior, incluido el papel de Pink Floyd.

Para mí, los últimos resultados, son de alguna manera similares. Sugieren que el hemisferio derecho es particularmente importante para la percepción de la música. Otros análisis realizados por los autores proporcionan información adicional. Pero mucho depende de la herramienta de red neuronal en gran medida inescrutable que se utilizó para producir la lectura de la canción. Y el trabajo fue altamente adaptado a esta canción, y puede que no se generalice más allá de ella.

Sin embargo, es un trabajo impresionante, y bien puede conducir a futuras ideas sobre cómo percibimos el sonido y la música.

A version of this article originally appeared in English.

publicidad
Acerca de
Daniel Graham, Ph.D.

Dr. Daniel Graham, es Profesor Asociado de Ciencias Psicológicas en los colegios Hobart y William Smith.

Más de Daniel Graham, Ph.D.
Más de Psychology Today
Más de Daniel Graham, Ph.D.
Más de Psychology Today