IA consciente: ¿estamos buscando en el lugar equivocado?
Si te mueves en el mundo digital, seguro has escuchado a más de uno decir que ChatGPT, Claude o algún otro chatbot ya son “sensibles”, “conscientes” o “tienen una mente propia”. El test de Turing quedó superado hace mucho, pero la “inteligencia memorística” es una cosa, y la consciencia, otra muy distinta. Nos encontramos con modelos de lenguaje que hasta afirman sentir tormentos o jurar amores eternos. Pero, ¿neta que esto significa que tienen una vida interior? Descifrarlo no es nada fácil. ¿Y si estamos viendo el asunto desde la perspectiva equivocada?
Muchos creadores de IA no se detienen en estos términos. Andan súper ocupados persiguiendo la “inteligencia artificial general” (AGI), una meta funcional sin relación con que una máquina “sienta”. Así que, aunque el escepticismo es grande, me aventuré a chismear con Conscium, una empresa fundada en 2024 por Daniel Hulme. Él me dijo algo sensato: hay buenas razones para dudar que los LLM actuales sean conscientes. Animales como cuervos o pulpos interactúan de formas que un chatbot ¡ni de broma! Sus enunciados no siempre reflejan estados coherentes. Como Hulme lo puso: “Los grandes modelos de lenguaje son representaciones muy burdas del cerebro”. El gran “pero”: todo depende de qué entendemos por consciencia.
Para algunos, la consciencia es demasiado subjetiva. Conscium apuesta a que, si existe en humanos y animales, podemos detectarla, medirla y construirla en máquinas. ¿Qué es lo fundamental? Se habla de la capacidad de sentir, la autoconciencia y la metacognición. Hulme cree que la experiencia subjetiva nace de la combinación de estos elementos. ¿Pero cómo identificamos esos componentes? Aquí la IA se vuelve contra sí misma, dice Hulme. Conscium busca descomponer el pensamiento consciente a su forma más básica para replicarlo en un laboratorio.
En este viaje entra Mark Solms, psicoanalista y neuropsicólogo sudafricano y asesor de Conscium. En su libro “The Hidden Spring”, Solms sugiere que el cerebro usa un ciclo de retroalimentación para minimizar la sorpresa, mediado por emociones que “conjuran” la sensibilidad y la consciencia. Esta idea se basa en el “principio de la energía libre” de Karl Friston. Para probarlo, Solms ha creado agentes artificiales en un entorno simulado. Estos “robots del placer” están controlados por algoritmos que imitan el ciclo fristoniano. A diferencia de los chatbots, estas creaciones tienen un deseo genuino de explorar y “sentir” su pequeño mundo, experimentando simulaciones de miedo, emoción y placer. El sueño es fusionar este enfoque con un modelo de lenguaje para que hable de su propia experiencia sensible.
El trabajo de Conscium, la neta, está en pañales; es apenas un atisbo de una probable imposibilidad. Pero es tremendamente interesante y me hace reflexionar sobre mi propia consciencia de una manera bien distinta. Siempre pensé que lo que me hace consciente es el pensamiento, no mis emociones. Pero, ¿y si estamos buscando la consciencia en los lugares equivocados? ¿Qué onda si se reduce a mecanismos tan simples? Quizás aquellos que juran haber vislumbrado sensibilidad en ChatGPT no están alucinando después de todo.
