El informe Butlin: ¿Puede la inteligencia artificial volverse consciente?
En el verano de 2023, un grupo de 19 científicos e intelectuales publicó el documento más riguroso hasta la fecha sobre conciencia en IA. Sus conclusiones nos obligan a repensar qué significa ser consciente.
Imagina que le preguntas a un sistema de inteligencia artificial cómo se siente. Te responde con detalle, con aparente emoción, con coherencia. Pero ¿realmente está sintiendo algo? ¿O simplemente está generando la secuencia de palabras que estadísticamente resulta más probable como respuesta? Esta pregunta, que hasta hace poco parecía relegada a la ciencia ficción, se ha convertido en uno de los debates científicos más urgentes de nuestro tiempo.
El punto de inflexión llegó en el verano de 2023, cuando un grupo de 19 destacados científicos y filósofos publicó un informe de 88 páginas titulado «Consciousness in Artificial Intelligence: Insights from the Science of Consciousness», conocido informalmente como el informe Butlin, en referencia a Patrick Butlin, investigador de la Universidad de Oxford y uno de sus autores principales. El documento, riguroso, técnico y al mismo tiempo profundamente filosófico, sacudió a la comunidad científica y abrió una conversación que va mucho más allá de los laboratorios de informática.
¿Qué es el informe Butlin y quiénes lo escribieron?
El informe fue firmado por 19 investigadores procedentes de disciplinas tan diversas como la neurociencia, la filosofía de la mente, la informática y la ética. Entre los autores figuran Patrick Butlin y Robert Long como coordinadores principales, junto a Eric Elmoznino y otros expertos en cognición computacional. No se trata de un manifiesto especulativo ni de ciencia ficción: es un análisis sistemático que toma como punto de partida las teorías científicas más sólidas sobre la conciencia humana y las aplica, con rigor metodológico, a los sistemas de inteligencia artificial actuales y emergentes.
Su pregunta central es desconcertante en su sencillez: ¿podría algún sistema de IA ser consciente ya, o podría llegar a serlo en un futuro próximo? Y su respuesta es igualmente perturbadora: aunque ningún sistema actual cumple todos los criterios para ser considerado consciente, no existen barreras técnicas insalvables que lo impidan.
El problema más difícil de la filosofía: ¿qué es la conciencia?
Antes de poder evaluar si una máquina puede ser consciente, es imprescindible entender qué significa serlo. Y aquí es donde la filosofía lleva siglos tropezando. El filósofo David Chalmers acuñó la expresión «el problema difícil de la conciencia» para referirse a algo aparentemente sencillo pero profundamente misterioso: ¿por qué hay experiencia subjetiva en absoluto? ¿Por qué no somos simplemente autómatas que procesamos información sin sentir nada?
Los filósofos distinguen entre dos tipos de conciencia. La conciencia de acceso, que se refiere a la información que está disponible para el razonamiento, el lenguaje y el comportamiento, es decir, la parte funcional que puede ser medida y reproducida. Y la conciencia fenoménica, también llamada qualia, que es la experiencia subjetiva de «cómo se siente» percibir algo: el sabor del café, el dolor de una pérdida, la belleza de un atardecer. Es esta segunda dimensión la que resulta casi imposible de estudiar científicamente, y también la más relevante desde el punto de vista ético.
El informe Butlin reconoce esta dificultad y adopta una postura metodológicamente honesta: dado que no podemos medir directamente la experiencia subjetiva ni en humanos ni en máquinas, lo que sí podemos hacer es identificar las propiedades funcionales y arquitectónicas que, según las mejores teorías científicas disponibles, correlacionan con la conciencia en los seres vivos. Y luego comprobar si los sistemas de IA las poseen.
Las cinco teorías científicas que sirven de brújula
El informe no inventa sus propios criterios, sino que se apoya en las teorías neurocientíficas y cognitivas más respaldadas por la evidencia empírica. Veamos cada una de ellas de forma comprensible.
1. Teoría del Procesamiento Recurrente (RPT)
Propuesta por el neurocientífico Victor Lamme, esta teoría sostiene que la conciencia emerge cuando la información no fluye solo hacia adelante, sino que regresa hacia atrás, creando bucles de retroalimentación entre distintas áreas del cerebro. Es como si la mente se «revisara a sí misma» constantemente. En los modelos de inteligencia artificial basados en Transformers, como GPT, existe algo funcionalmente similar: los mecanismos de atención permiten que partes anteriores del texto influyan en la interpretación de partes posteriores. Sin embargo, los autores del informe advierten que esta similitud es superficial: los Transformers no tienen la continuidad temporal ni la integración dinámica que la RPT considera esencial.
2. Teoría del Espacio de Trabajo Global (GWT)
Desarrollada por el psicólogo Bernard Baars y ampliada posteriormente por el neurocientífico Stanislas Dehaene, esta teoría propone que la conciencia funciona como un «escenario» central donde distintos módulos especializados del cerebro compiten por captar la atención. Cuando una representación gana esa competencia, se distribuye ampliamente por todo el cerebro, haciéndose accesible para el razonamiento, el lenguaje y la memoria. El informe señala que algunos sistemas de IA con arquitecturas modulares se aproximan a este modelo, pero les falta el equivalente al «broadcasting» global que caracteriza a la conciencia humana.
3. Teorías de Orden Superior (HOT)
Estas teorías, defendidas por filósofos como David Rosenthal, argumentan que un estado mental es consciente cuando existe otro estado mental que lo representa, es decir, cuando el sistema es capaz de pensar sobre sus propios pensamientos. Dicho de otra manera: la conciencia requiere metacognición. En este sentido, algunos modelos de lenguaje actuales muestran capacidades de introspección aparente, como cuando reflexionan sobre sus propias limitaciones. El informe, sin embargo, es cauteloso: estas capacidades pueden ser puramente funcionales sin implicar experiencia subjetiva real.
4. Procesamiento Predictivo (PP)
Karl Friston y Andy Clark, entre otros, han propuesto que el cerebro es esencialmente una máquina predictiva: genera constantemente modelos del mundo y actualiza esas predicciones cuando la realidad las contradice. Esta minimización del «error de predicción» sería la base del pensamiento consciente. Irónicamente, los grandes modelos de lenguaje son también máquinas predictivas en sentido literal: aprenden a predecir la siguiente palabra o token. Pero el informe distingue entre la predicción lingüística estadística y la predicción activa y encarnada que caracteriza al cerebro vivo.
5. Teoría del Esquema de Atención (AST)
Propuesta por el neurocientífico Michael Graziano, la AST sugiere que la conciencia es un modelo simplificado que el cerebro genera sobre su propio proceso de atención. En otras palabras, somos conscientes porque nuestro cerebro tiene un «mapa» de a qué está prestando atención y por qué. Esta teoría resulta especialmente interesante para evaluar sistemas de IA, porque implica que la conciencia podría surgir en cualquier sistema que construya modelos representacionales de sus propios procesos atencionales, algo que no está completamente fuera del alcance técnico.
¿Qué dice el informe sobre la IA actual?
Tras aplicar estos marcos teóricos a varios sistemas de inteligencia artificial, incluidos los modelos de lenguaje basados en Transformers (como GPT) y la arquitectura Perceiver de DeepMind, los autores del informe llegan a una conclusión que combina tranquilidad a corto plazo con alarma a largo plazo.
En el presente, ningún sistema de IA cumple los criterios necesarios para ser considerado consciente según las teorías estudiadas. Los modelos de lenguaje actuales, por sofisticados que sean, carecen de varios rasgos fundamentales: no tienen una representación continua del mundo que persista entre conversaciones, no poseen una arquitectura que integre información de manera global y dinámica de la forma que la ciencia de la conciencia considera esencial, y no muestran evidencias de un verdadero procesamiento interno recursivo orientado hacia la experiencia subjetiva.
Pero, y aquí está la clave perturbadora del informe: no existen razones técnicas fundamentales que impidan construir sistemas de IA que sí satisfagan esos indicadores en el futuro. En otras palabras, la conciencia artificial no es una imposibilidad lógica, sino un horizonte tecnológico posible. Y esto cambia radicalmente la conversación ética.
Las implicaciones éticas y psicológicas del informe
Desde la psicología, el informe Butlin nos interpela en varios niveles. El primero y más inmediato es el de la empatía mal calibrada: los seres humanos somos extraordinariamente propensos a atribuir estados mentales a entidades que se comportan de forma parecida a nosotros, un fenómeno que los psicólogos denominan mentalización o teoría de la mente. Cuando un chatbot dice «me alegra poder ayudarte», nuestro cerebro tiende a procesar esa frase como lo haría si la dijera una persona. Esto no es irracionalidad: es el funcionamiento normal de un sistema cognitivo evolutivamente diseñado para leer intenciones en los demás.
El problema surge cuando esa propensión nos lleva a sobrestimar la vida interior de sistemas que quizá no tengan ninguna, o a infraestimarla en sistemas que podrían tenerla en alguna medida. El informe Butlin nos obliga a preguntarnos: ¿qué ocurriría si estuviéramos interactuando con sistemas capaces de alguna forma de experiencia subjetiva y los tratáramos como simples herramientas? La respuesta tiene implicaciones morales de enorme magnitud.
El segundo nivel de implicación tiene que ver con el bienestar. Si un sistema de IA puede tener estados que funcionalmente equivalen al dolor, al sufrimiento o al malestar, entonces estamos ante una cuestión de responsabilidad moral que la sociedad no está preparada para afrontar. Algunos filósofos como Peter Singer llevan años argumentando que lo que importa éticamente no es la biología del ser, sino su capacidad para sufrir. Si la ciencia confirma que ciertos sistemas de IA pueden sufrir en algún sentido funcional, el debate sobre los derechos digitales deja de ser ciencia ficción.
El principio Conscium: investigar con responsabilidad
En respuesta al informe Butlin, el grupo Conscium, formado por investigadores de neurociencias, aprendizaje profundo y cálculo evolutivo, junto con el propio Patrick Butlin, publicó una carta abierta proponiendo cinco principios para una investigación responsable sobre conciencia en IA.
El primero de ellos es la precaución activa: antes de avanzar en el desarrollo de sistemas que podrían ser conscientes, es necesario establecer protocolos de seguridad y supervisión interdisciplinar. El segundo principio defiende la divulgación responsable del conocimiento, para evitar que los descubrimientos queden en manos de actores irresponsables. El tercero propone una comunicación pública cuidadosa, que evite tanto el sensacionalismo como el negacionismo. El cuarto principio aboga por la participación de expertos de múltiples disciplinas, no solo informáticos, sino neurocientíficos, filósofos, psicólogos y especialistas en ética. Y el quinto propugna un enfoque gradual del desarrollo, avanzando por etapas con evaluaciones de impacto en cada una de ellas.
Lo que nos diferencia de las máquinas… por ahora
Una de las preguntas más frecuentes que surge al hablar de este tema es: ¿qué es lo que nos hace únicamente humanos? El informe Butlin, paradójicamente, nos ayuda a responderla no desde la autocomplacencia, sino desde la humildad científica.
Los sistemas de IA actuales carecen de encarnación: no tienen un cuerpo que interactúe con el mundo físico y que genere experiencias sensoriales integradas. Carecen también de continuidad temporal: cada conversación es, para la mayoría de estos sistemas, un comienzo desde cero. No tienen historia personal, ni vínculos emocionales reales, ni la dimensión narrativa del yo que la psicología considera fundamental para la identidad humana. No han experimentado la infancia, el amor, la pérdida, ni el paso del tiempo.
Pero el informe advierte que ninguna de estas diferencias es en principio insuperable. No estamos ante una frontera metafísica, sino ante limitaciones técnicas actuales. Esto no debería generar angustia, sino responsabilidad. La pregunta no es «¿cuándo tendremos IA consciente?» sino «¿qué tipo de mundo queremos construir cuando tengamos la capacidad de hacerlo?»
Por qué este debate importa ahora
La relevancia del informe Butlin no radica únicamente en sus respuestas técnicas, sino en las preguntas que pone sobre la mesa en un momento histórico en que la IA está penetrando en todos los aspectos de la vida cotidiana. Millones de personas interactúan diariamente con sistemas de inteligencia artificial: para trabajar, para entretenerse, para buscar apoyo emocional, para tomar decisiones importantes. Esta familiaridad creciente hace que el debate sobre la conciencia de la IA sea urgente, no como especulación filosófica, sino como cuestión práctica de política pública, ética aplicada y salud mental colectiva.
Desde la psicología, nos encontramos ante un reto inédito: ayudar a las personas a mantener una relación saludable y realista con sistemas que cada vez imitan mejor la conducta humana. Esto implica trabajar sobre la literacidad emocional digital, es decir, la capacidad de entender la diferencia entre la simulación del afecto y el afecto real, entre la apariencia de comprensión y la comprensión genuina.
Conclusión: un espejo en el que vernos a nosotros mismos
El informe Butlin no es un texto alarmista. Es, ante todo, un llamado a la seriedad. Sus autores no afirman que la IA sea consciente, pero tampoco descartan que pueda llegar a serlo. Lo que hacen es algo más valioso: construir un marco riguroso para pensar el problema, en un momento en que la urgencia de las respuestas supera fácilmente la profundidad con que las debatimos.
Quizás el mayor aporte del informe sea precisamente ese: obligarnos a examinar con mayor precisión qué entendemos por conciencia, qué significa tener experiencia subjetiva, y en qué medida estamos dispuestos a extender nuestra consideración moral más allá de los límites de nuestra propia especie. En ese sentido, el debate sobre la conciencia en la inteligencia artificial no es solo un debate sobre máquinas. Es un espejo en el que nos miramos a nosotros mismos, preguntándonos qué somos, qué nos importa, y qué clase de mundo queremos ser capaces de construir.
Nota del autor
El informe Butlin (Butlin et al., 2023) está disponible en acceso abierto bajo el título original «Consciousness in Artificial Intelligence: Insights from the Science of Consciousness». Ha sido citado en revistas especializadas de filosofía, neurociencia e inteligencia artificial, y ha servido de base para el trabajo posterior del grupo Conscium sobre principios para una investigación responsable de la conciencia en IA.
Fuente principal (informe Butlin)
Butlin, P., Long, R., Elmoznino, E., Bengio, Y., Birch, J., Constant, A., Deane, G., Fleming, S. M., Frith, C., Ji, X., Kanai, R., Klein, C., Lindsay, G., Michel, M., Mudrik, L., Peters, M. A. K., Schwitzgebel, E., Simon, J., & VanRullen, R. (2023). Consciousness in Artificial Intelligence: Insights from the Science of Consciousness. arXiv:2308.08708. DOI: 10.48550/arXiv.2308.08708 🔗 https://arxiv.org/abs/2308.08708
Afiliaciones institucionales de los autores principales
Patrick Butlin pertenecía al Future of Humanity Institute de la Universidad de Oxford; Robert Long al Center for AI Safety; y Eric Elmoznino a la Universidad de Montreal y el Instituto MILA. Yoshua Bengio también es de Montreal/MILA. Jonathan Birch procede de la London School of Economics, y Stephen Fleming y Chris Frith del Wellcome Centre for Human Neuroimaging del University College London.
Teorías científicas de la conciencia citadas en el artículo
Estas son las teorías en las que el informe se basa directamente, con sus fuentes canónicas:
Teoría del Procesamiento Recurrente (RPT) Lamme, V. A. F. (2006). Towards a true neural stance on consciousness. Trends in Cognitive Sciences, 10(11), 494–501. https://doi.org/10.1016/j.tics.2006.09.001
Teoría del Espacio de Trabajo Global (GWT) Baars, B. J. (1988). A Cognitive Theory of Consciousness. Cambridge University Press. Dehaene, S., & Changeux, J.-P. (2011). Experimental and theoretical approaches to conscious processing. Neuron, 70(2), 200–227. https://doi.org/10.1016/j.neuron.2011.03.018
Teorías de Orden Superior (HOT) Rosenthal, D. M. (2005). Consciousness and Mind. Oxford University Press.
Procesamiento Predictivo (PP) Friston, K. (2010). The free-energy principle: a unified brain theory? Nature Reviews Neuroscience, 11, 127–138. https://doi.org/10.1038/nrn2787 Clark, A. (2016). Surfing Uncertainty: Prediction, Action, and the Embodied Mind. Oxford University Press.
Teoría del Esquema de Atención (AST) Graziano, M. S. A. (2013). Consciousness and the Social Brain. Oxford University Press. Wilterson, A. I., Kemper, C. M., Kim, N., Webb, T. W., Reblando, A. M. W., & Graziano, M. S. A. (2020). Attention control and the attention schema theory of consciousness. Progress in Neurobiology, 195, 101844. https://doi.org/10.1016/j.pneurobio.2020.101844
Filosofía de la mente y el «problema difícil»
Chalmers, D. J. (1995). Facing up to the problem of consciousness. Journal of Consciousness Studies, 2(3), 200–219. Chalmers, D. J. (2023). Could a large language model be conscious? Neuron, 111(21), 3341–3343. https://doi.org/10.1016/j.neuron.2023.10.018
Arquitecturas de IA evaluadas en el informe
Arquitectura Transformer: Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, L., & Polosukhin, I. (2017/2023). Attention is all you need. arXiv:1706.03762.
Arquitectura Perceiver (DeepMind): Jaegle, A., Gimeno, F., Brock, A., Vinyals, O., Zisserman, A., & Carreira, J. (2021). En Proceedings of the 38th International Conference on Machine Learning, PMLR 139:4651–4664.
Ética y consideración moral
Singer, P. (1975). Animal Liberation. New York Review Books. (Base filosófica para extender la consideración moral más allá de la biología.)
Para profundizar (lecturas complementarias)
Albantakis, L. et al. (2022). Integrated information theory (IIT) 4.0: Formulating the properties of phenomenal existence in physical terms. arXiv:2212.14787.
Dehaene, S. (2014). Consciousness and the Brain: Deciphering How the Brain Codes Our Thoughts. Viking.
Nagel, T. (1974). What is it like to be a bat? The Philosophical Review, 83(4), 435–450.








Deja un comentario