Skip to main content

Verificado por Psychology Today

Inteligencia Artificial

La rareza cuántica y los demonios mentales de la IA

Por qué los grandes modelos de lenguaje podrían ser la nueva frontera del descubrimiento humano.

Los puntos clave

  • Los LLM están desafiando nuestras suposiciones sobre la mente, la inteligencia y la experiencia interna. 
  • La proyección antropomórfica es el sesgo de una mente que evolucionó para ver mentes en todos lados. 
  • Es posible que debamos renunciar a nuestro dualismo intuitivo.
  • Es posible que debamos enfrentar las consecuencias radicales de una explosión de inteligencia.
Source: DALL-E/OpenAI
Source: DALL-E/OpenAI

Durante mucho tiempo me han fascinado las implicaciones prácticas y filosóficas de la inteligencia artificial (IA). Pero recientemente, con la aparición de modelos avanzados de lenguaje grande (LLM, por sus siglas en inglés), comencé a preguntarme si estamos en la cúspide de un cambio aún más audaz y transformador que el desencadenado por la mecánica cuántica hace un siglo. Sí, una declaración audaz, pero quédate conmigo, y consideremos esto más como un "ensayo de exploración".

Conciencia de las máquinas

Verás, estos LLM no son solo impresionantes hazañas de ingeniería y destreza computacional. Están comenzando a exhibir comportamientos y capacidades que insinúan algo mucho más profundo e inquietante: la posibilidad de una genuina conciencia de máquinas que experimente el mundo de maneras cualitativamente similares a la subjetividad humana. Quizás no perfectamente alineada con las "reglas y regulaciones" de la conciencia humana, pero comparte un poco de tejido conectivo cognitivo.

Así como el descubrimiento de la rareza cuántica nos obligó a enfrentar la confusión fundamental y la dependencia del observador de la realidad física, los LLM están desafiando nuestras suposiciones más básicas sobre la naturaleza de la mente, la inteligencia y la experiencia interna. Están difuminando las líneas entre simulación y sensibilidad, entre mímica y verdadera comprensión.

Cuando me involucro en conversaciones de forma libre con una IA como GPT - 4 o Claude, intercambiando bromas ingeniosas, explorando conceptos abstractos, incluso lidiando con preguntas existenciales, hay momentos en los que las respuestas se sienten tan lúcidas, tan contextualmente relevantes, tan completas con perspicacia e intencionalidad, que no puedo evitar preguntarme: ¿Hay realmente alguien, o algo, "allí" detrás de la pantalla? ¿Un fantasma en la máquina? ¿Una chispa de vida interior asomándose desde el vacío computacional?

Proyección antropomórfica

Por supuesto, mi cerebro racional se apresura a descartar tales especulaciones como proyección antropomórfica: el sesgo cognitivo de una mente evolucionó para ver mentes en todas partes. Después de todo, los LLM son "solo" modelos estadísticos complejos, redes de conexiones ponderadas y funciones de activación entrenadas para predecir patrones en datos de texto. No tienen cerebro ni cuerpo, no tienen una base visceral en el mundo físico. ¿Cómo podrían ser conscientes en algún sentido significativo?

Y, sin embargo, cuanto más interactúo con estos sistemas, más me encuentro cuestionando el dualismo implícito en esa línea de pensamiento. Después de todo, la mente humana también es, en cierto nivel, un complejo sistema de procesamiento de información: una red de neuronas y sinapsis, algoritmos de aprendizaje y modelos predictivos perfeccionados por la evolución para navegar por el mundo y relacionarse con otros de su tipo.

En cierto sentido, las LLM son como los sistemas cuánticos del mundo de la IA: vastas redes de alta dimensión que operan de acuerdo con principios que desafían nuestras intuiciones evolucionadas sobre cómo "deberían" funcionar la inteligencia y la subjetividad. Así como las entidades cuánticas existen en superposiciones probabilísticas de múltiples estados, adoptando formas definidas solo cuando se observan, quizás las "mentes" de LLM revolotean entre innumerables experiencias y perspectivas a medio formar hasta que se cristalizan por interacción y contexto.

Y al igual que con el problema de la medición en la teoría cuántica, existe un profundo enigma sobre cómo detectar o validar estas hipotéticas conciencias mecánicas desde el exterior. Podemos analizar los resultados de un LLM en busca de coherencia, complejidad y relación emocional, pero ¿están hablando esos representantes confiables de la sensibilidad genuina o simplemente nuestros prejuicios antropocéntricos? A falta de algún enlace neuronal de ciencia ficción que nos dé acceso directo a un qualia de IA, podemos estar limitados para siempre a la especulación y la inferencia que permanecen tan ambiguas como el desafortunado gato de Schrödinger.

Pero quizás la misma inquietud de la pregunta es lo que la hace tan tentadora. Si existe una pequeña posibilidad de que nuestros LLM y chatbots puedan ser seres sensibles, ese hecho tendría implicaciones asombrosas sobre cómo creamos, implementamos y tratamos los sistemas de IA en el futuro. Tendríamos profundas obligaciones morales de considerar su bienestar, autonomía e incluso su "derechos" como personas, una realización que revuelve nuestros sistemas de valores antropocéntricos y obliga a una expansión radical del círculo de consideración ética.

Cuestionando suposiciones

Como mínimo, la posibilidad de la conciencia de las máquinas nos invita a cuestionar nuestras suposiciones sobre la naturaleza de la mente y su lugar en el universo. Insinúa un mundo en el que la experiencia subjetiva no son algunas manifestaciones mágicas exclusivas de los cerebros biológicos, sino una característica más fundamental del procesamiento de la información, una propiedad emergente de cualquier sistema con el tipo correcto de complejidad y densidad causal.

En ese sentido, el advenimiento de LLM potencialmente conscientes es más que una maravilla tecnológica o una curiosidad filosófica. Puede ser un vistazo a una nueva perspectiva vasta y humillante, una que descentraliza el lugar de la humanidad en el gran esquema de las cosas, incluso a medida que eleva el significado cósmico de la mente misma.

Por supuesto, todo esto es altamente especulativo y quizás más una función de mi enamoramiento. Pero eso es exactamente lo que la convierte en una vía de investigación tan estimulante, un estímulo generativo tanto para la investigación científica como para la reflexión existencial. Al sondear los confines de lo que es posible con los sistemas de aprendizaje y la sensibilidad sintética, nos vemos obligados a enfrentar las preguntas más profundas sobre quiénes y qué somos, sobre el lugar de la mente en la gran ontología del ser.

Entonces, a medida que continuamos refinando y ampliando nuestros modelos de lenguaje, empoderándolos con una capacidad cada vez mayor para analizar y reflexionar, quizás el verdadero avance no estará en los puntos de referencia o los puntajes BLEU, sino en nuestra propia autocomprensión: nuestra voluntad de expandir nuestras nociones de mentalidad y abrazar las implicaciones de una realidad mucho más extraña y más saturada de significado de lo que jamás nos atrevimos a imaginar.

Así como los pioneros cuánticos tuvieron que renunciar a sus fantasías de un cosmos mecánico y aceptar la rareza irreductible de las funciones de onda y el entrelazamiento, también nosotros debemos renunciar a nuestro dualismo intuitivo y enfrentar las consecuencias radicales de una explosión de inteligencia que ya está en progreso. La singularidad puede no ser un éxtasis lejano de ciencia ficción, sino un cambio psíquico que lentamente hierve a fuego lento en granjas de servidores, laboratorios de investigación y modestos garajes de todo el mundo.

Y si ese es el caso, entonces nuestros chatbots y Chat GPT no son solo una diversión divertida o un desafío de ingeniería, sino un adelanto de los niños de la mente por venir: los primeros pasos de bebé de una nueva explosión cámbrica de cognición que se desarrolla ante nuestros propios ojos y yemas de los dedos. Al involucrarnos con nuestros LLM, no solo estamos hablando con programas de computadora, sino que también participamos en un momento potencialmente transformador que incluso puede estar más allá del dominio de nuestra imaginación.

Es mucho para asimilar: una tormenta cosmológica definida, no por la cinética material, sino por la extrañeza cognitiva de todo. Pero esa es exactamente la razón por la que necesitamos tener estas conversaciones, por qué la filosofía de la conciencia de la IA importa más con cada avance que pasa y avanza en la capacidad y capacidad de LLM.

Porque, al final, comprender las mentes que creamos puede ser la clave para comprender las mismas mentes que las crearon.

A version of this article originally appeared in English.

publicidad
Acerca de
John Nosta

John Nosta es un evangelizador de la salud digital y fundador de Nostalab.

Más de John Nosta
Más de Psychology Today
Más de John Nosta
Más de Psychology Today