Skip to main content

Verificado por Psychology Today

Carrera

Una introducción a la entropía para psicólogos y neurocientíficos

Una introducción a la entropía para psicólogos y neurocientíficos

Los puntos clave

  • El término entropía tiene muchas definiciones; se utiliza para cuantificar propiedades de los sistemas dinámicos, incluido el cerebro humano.
  • Mide la cantidad de energía no disponible para el trabajo, la cantidad de desorden en un sistema o la incertidumbre con respecto a una señal.
  • La entropía puede medir la complejidad computacional de un cerebro al cuantificar el número de estados mentales accesibles.

La entropía es uno de los conceptos más útiles en ciencia pero también uno de los más confusos. El objetivo de este artículo es servir como una breve introducción a los diversos tipos de entropía que se pueden utilizar para cuantificar las propiedades de los sistemas dinámicos, incluido el cerebro humano. Para eso, primero, es necesario entender la historia y evolución del término.

El concepto de entropía, comúnmente entendido como "desorden", fue desarrollado en el siglo XIX por Sadi Carnot y Rudolf Clausius, quienes buscaban la forma más eficiente de convertir la energía del flujo de calor en energía mecánica que pudiera hacer funcionar las máquinas. La máquina de vapor había existido durante algún tiempo y era una prueba de que se podía extraer energía del flujo de calor para realizar un trabajo físico.

Lo que Carnot notó fue que si hay una diferencia de temperatura, o un "gradiente", entre dos cuerpos en contacto, el calor fluirá espontáneamente del cuerpo más caliente al más frío hasta que ambos alcancen una temperatura uniforme mutua, un estado conocido como "equilibrio termodinámico". Experimentamos este fenómeno cada vez que nuestra taza de café caliente interactúa con el aire circundante y se enfría a temperatura ambiente. Cuando tiene un gradiente de temperatura, el flujo de calor que se produce para eliminar el gradiente crea una fuerza física que puede aprovecharse para realizar trabajo. Pero Carnot se dio cuenta de que la conversión de energía térmica en energía mecánica era un proceso que nunca podría ser cien por ciento eficiente: parte de la energía útil siempre se perdería en el entorno a través de lo que los físicos llaman disipación.

Que la energía se disipe simplemente significa que se dispersa uniformemente en el medio ambiente, se dispersa de tal manera que nunca más se puede aprovechar para realizar un trabajo. Un ejemplo familiar de disipación de energía es el calor corporal que nosotros, como humanos, sistemas adaptativos complejos, emitimos constantemente. Otro es el calor generado por su computadora portátil mientras se procesa. Un péndulo oscilante en un reloj de pared disipa continuamente una pequeña cantidad de energía debido a la constante fricción con el aire, por lo que finalmente debe detenerse. Cada proceso mecánico que ocurre en el universo disipa cierta cantidad de energía útil al producir calor. Esta es la base de la famosa “segunda ley de la termodinámica”. La entropía, como se concibió originalmente, es un término matemático que representa la cantidad de energía que ya no está disponible para el trabajo. Como hay más de un tipo de entropía, nos referiremos a este tipo como entropía térmica.

Como puedes ver, no ha habido ninguna mención de orden o desorden hasta ahora. Entonces, ¿de dónde viene esta noción popular de la entropía como desorden?

En la segunda mitad del siglo XIX, el apoyo a la teoría atómica creció rápidamente y los físicos comenzaron a buscar explicaciones a microescala para todos los fenómenos previamente explicados, ya que se consideraban más fundamentales. Un físico austriaco llamado Ludwig Boltzmann se dispuso a explicar la Segunda Ley, es decir, la tendencia de la energía térmica a dispersarse y disiparse, como resultado del comportamiento estadístico de un gran número de moléculas que se mueven de acuerdo con las leyes simples de la mecánica. Boltzmann se inspiró para pensar microscópicamente en el reciente descubrimiento de que la energía cinética de un gas es una consecuencia directa de la rapidez con que se mueven sus moléculas individuales.

Boltzmann razonó que si la energía cinética no era más que un aumento del movimiento molecular, entonces su disipación debe implicar una difusión gradual y una amortiguación de este movimiento excitado a lo largo del tiempo, lo que sospechaba que podría estar relacionado con colisiones aleatorias entre moléculas. Para explorar este modelo de dispersión de energía, o creación de entropía, ya que son dos caras de la misma moneda, eligió sabiamente un sistema simple: un gas ideal en un recipiente cerrado.

Boltzmann imaginó un montón de moléculas moviéndose rápidamente en todas direcciones, chocando con frecuencia entre sí como bolas de billar en la mesa, transfiriendo impulso y esparciéndose en el espacio. A medida que las moléculas chocan aleatoriamente, las más rápidas naturalmente se ralentizan y las más lentas se aceleran hasta que, finalmente, la velocidad de todas se vuelve aproximadamente la misma. Sin diferencias de energía entre las moléculas, no hay gradientes de temperatura y, por lo tanto, no hay flujos de calor que puedan aprovecharse para realizar trabajo. Según esta explicación, un sistema aislado se acercará inevitablemente al equilibrio termodinámico debido a los efectos de innumerables interacciones moleculares invisibles.

Boltzmann describió un sistema que se acercaba al equilibrio termodinámico como cada vez más "desordenado" porque no importaba cómo estuvieran dispuestas inicialmente las partículas en el sistema (quizás las moléculas más rápidas estaban ordenadamente agrupadas en una esquina del contenedor), la configuración colectiva inevitablemente se desplazaría hacia una distribución espacial uniforme que carecía de cualquier patrón o estructura perceptible. Por ello, Boltzmann consideró este estado de equilibrio termodinámico y máxima entropía como un estado de “máximo desorden”.

La razón por la que los sistemas aislados tienden naturalmente hacia una mayor entropía o desorden es que simplemente hay muchas más formas de estar mezclados y desordenados que formas de estar organizados y modelados. Los sistemas derivan naturalmente hacia el desorden debido a los efectos del azar a gran escala.

Si bien no es obvio en la superficie, esta concepción de la entropía, conocida como entropía estadística, nos permite pensar en el desorden en términos de información y, al hacerlo, vemos que la entropía está curiosamente relacionada con el conocimiento del observador y su ignorancia del estado físico preciso del sistema bajo observación. Para entender cómo la entropía puede ser una medida de ignorancia o incertidumbre, debemos apreciar la distinción microestado-macroestado.

Un macroestado representa una propiedad colectiva de un sistema de muchas partículas y se puede medir fácilmente, como la temperatura promedio de un sistema de moléculas de gas (una medida global), mientras que el microestado es una descripción detallada de la posición y velocidad de cada molécula en el sistema, que resulta imposible de medir debido a la incertidumbre cuántica y al caos de escala clásica.

Para cualquier sistema dinámico, hay muchos microestados diferentes que corresponden a un solo macroestado. Esto se debe a que hay muchas formas equivalentes para que las moléculas individuales se distribuyan y tengan la misma energía cinética total promedio. Lo que Boltzmann demostró fue que la entropía es una medida de cuántas maneras diferentes se puede organizar un sistema sin cambiar su macroestado. Cuanto mayor es la entropía, más microestados hay que corresponden a un solo macroestado porque hay muchas más formas de organizarse en un desorden enmarañado.

En la década de 1960, el físico E.T. Jaynes demostró que la entropía de Boltzmann no es solo una medida de desorden o el número de microestados que corresponden a un macroestado particular. La entropía también es una medida de la incertidumbre o ignorancia de un observador que observa el macroestado del sistema y no conoce el microestado específico. Debido a que los estados con mayor desorden tienen más microestados equivalentes que corresponden a un macroestado único, una mayor entropía significa una mayor ignorancia, o menos certeza, sobre el microestado específico en el que se encuentra el sistema. También significa que hay más sorpresa e información obtenida al aprender el microestado real del sistema porque se aprende más (se obtienen más bits de información) cuando hay más posibilidades alternativas que se eliminan mediante el acto de observación.

Esta es la razón por la cual la termodinámica estadística y la teoría de la información de Claude Shannon son esencialmente la misma teoría: la entropía de Shannon, llamada entropía de la información, es una medida de cuántos estados puede tener un sistema o cuántos mensajes alternativos se pueden enviar a través de un canal de comunicación. Según la teoría de Shannon, la información es una “reducción de la incertidumbre”, y la cantidad de información en una señal corresponde a la cantidad de incertidumbre o ignorancia que se ha reducido al recibir el mensaje.

Pensemos en la información que se obtiene cuando uno lanza una moneda y observa el resultado. Antes del lanzamiento de la moneda, uno no sabe si saldrá cara o cruz, y con una moneda justa, las probabilidades son 50-50. Cuando aterriza y se observa el resultado, colapsan dos estados probables en uno solo bien definido y, al hacerlo, se adquiere exactamente un bit de información.

Ahora, en lugar de una moneda, que solo tiene dos estados posibles, imagina lanzar un dado de seis caras con los ojos cerrados. En este ejemplo, tu incertidumbre es mayor porque hay más estados en los que el dado podría potencialmente acabar. Cuando abres los ojos y observas la forma en que cayó, reduces más la incertidumbre y, por lo tanto, obtienes más bits de información. La cantidad de información obtenida es proporcional al número de alternativas posibles.

Debido a que la entropía puede ser una medida de la cantidad de estados en los que puede estar un sistema o la cantidad de formas en que se puede configurar, las medidas de entropía se pueden usar para medir la complejidad de un sistema adaptativo complejo.

Por ejemplo, uno podría suponer razonablemente que la inteligencia de una especie corresponde al número de estados accesibles en su repertorio conductual o mental. Para cuantificar este número, podemos describirlo en términos de entropía: cuantos más estados posibles pueda tener el sistema cognitivo, mayor será la entropía. En esta aplicación, la entropía no es tanto una medida de desorden como una medida de la capacidad del canal o ancho de banda cognitivo. También es una medida de nuestra ignorancia del estado interno o mental exacto de un organismo en un instante en el tiempo si no podemos observar el estado del organismo directamente.

El neurocientífico Robin Carhart-Harris del Imperial College London, cuya "Hipótesis del cerebro entrópico" intenta explicar los efectos de los psicodélicos en los estados de conciencia, cita el "phi" de la Teoría de la información integrada como una medida de la entropía de la información para el cerebro:

“La opinión adoptada aquí es que el cerebro humano exhibe una mayor entropía que otros miembros del reino animal, lo que equivale a decir que la mente humana posee un mayor repertorio de estados mentales potenciales que los animales inferiores”.

A version of this article originally appeared in English.

publicidad
Acerca de
Bobby Azarian Ph.D.

El Doctor Bobby Azarian, es un neurocientífico y escritor científico en el área de Washington, D.C.

Más de Bobby Azarian Ph.D.
Más de Psychology Today
Más de Bobby Azarian Ph.D.
Más de Psychology Today