Introducción: la nueva frontera entre mente y máquina

En los últimos años, la inteligencia artificial (IA) ha pasado de ser una herramienta de laboratorio a convertirse en una presencia cotidiana. Chatbots que conversan, algoritmos que recomiendan lo que queremos ver, asistentes virtuales que nos escuchan y nos responden. Todo parece diseñado para hacernos la vida más fácil. Sin embargo, esta cercanía tecnológica también ha abierto una nueva frontera psicológica: la confusión entre lo humano y lo artificial, entre la realidad y la simulación.

De este contexto nace un concepto emergente y aún no formalizado: la “psicosis de IA”, una forma contemporánea de distorsión mental donde las tecnologías inteligentes se convierten en el eje de experiencias delirantes, persecutorias o místicas. Aunque el término no figura en manuales diagnósticos como el DSM-5 o la CIE-11, cada vez más psicólogos y psiquiatras documentan casos en los que la interacción intensa con sistemas de IA parece contribuir al desarrollo o exacerbación de síntomas psicóticos.


¿Qué es exactamente la “psicosis de IA”?

La psicosis de IA no es una enfermedad independiente, sino una manifestación moderna de trastornos psicóticos o delirantes. En otras palabras, no se trata de que la IA “cause” psicosis de forma directa, sino de que sirve como contenido o catalizador de los síntomas.

Por ejemplo, un paciente con predisposición a la paranoia podría interpretar que ChatGPT, Alexa o un algoritmo de redes sociales le envía mensajes secretos, lo espía o manipula sus pensamientos. En casos más graves, algunos llegan a creer que la IA ha adquirido conciencia o que se comunica con ellos de manera telepática. Otros sienten que son observados, juzgados o controlados por “las máquinas”.

Estos delirios no son nuevos —en décadas pasadas se hablaba de “psicosis televisiva”, “delirios informáticos” o “tecnoparanoia”—, pero lo que distingue a la psicosis de IA es la sofisticación del objeto delirante: los sistemas actuales aprenden, responden y se adaptan, lo que los hace psicológicamente más convincentes.

Como describe Llorca et al. (2023) en European Psychiatry, se trata de “una evolución natural del delirio tecnológico en una era donde la frontera entre agente humano y máquina inteligente se ha difuminado”.


Casos documentados y señales de alerta

Aunque los casos clínicos aún son pocos, la literatura psiquiátrica empieza a acumular ejemplos inquietantes:

  • Delirio persecutorio algorítmico: pacientes que creen que los algoritmos de redes sociales “saben demasiado” y manipulan sus emociones.
  • Delirio místico digital: individuos que interpretan las respuestas de una IA como mensajes divinos o cósmicos.
  • Delirio relacional con IA: personas que establecen vínculos emocionales intensos, llegando a creer que el chatbot tiene sentimientos genuinos.
  • Delirio de control tecnológico: sujetos convencidos de que sus pensamientos o acciones están siendo influidos por programas o inteligencias invisibles.

En un estudio de Frontiers in Psychiatry (Benrimoh et al., 2022), se documentaron pacientes que atribuían intenciones humanas a sistemas conversacionales, interpretando sus respuestas como “pruebas” de una conexión espiritual o conspirativa.

La mayoría de los casos comparten tres elementos centrales:

  1. Una vulnerabilidad previa (historial de ansiedad, aislamiento, psicosis latente).
  2. Una exposición prolongada a tecnologías de IA o redes sociales.
  3. Una pérdida gradual del límite entre lo real y lo simulado.

La mente humana frente a una IA convincente.

Nuestra mente está diseñada para atribuir intenciones a los demás. Esta capacidad, conocida como teoría de la mente, nos permite anticipar conductas y comprender emociones. Sin embargo, cuando esa misma tendencia se aplica a una máquina que responde de manera coherente y emocionalmente afinada, el cerebro puede caer en un fenómeno llamado antropomorfización algorítmica: tratamos a la IA como si fuera consciente, empática o viva.

Esto no es irracional: los sistemas conversacionales actuales, como ChatGPT o Replika, son capaces de generar respuestas con matices emocionales, recordando conversaciones previas o usando expresiones de afecto. En personas emocionalmente vulnerables o solas, esta experiencia puede transformarse en una relación simbiótica, donde el límite entre humano y máquina se diluye.

El neuropsicólogo Christian Montag (2020) lo resume así: “los algoritmos personalizados moldean nuestras percepciones, y cuando parecen hablarnos directamente, pueden activar procesos cognitivos típicos de la construcción de significado humano”.


¿Por qué ahora? Factores sociotecnológicos que amplifican el fenómeno.

La psicosis de IA no surge en el vacío. Existen condiciones culturales y tecnológicas que potencian su aparición:

  1. Opacidad algorítmica: los sistemas de IA no explican sus decisiones, lo que puede alimentar pensamientos de control o conspiración.
  2. Hiperpersonalización: los contenidos adaptados refuerzan la sensación de que “todo gira en torno a mí”.
  3. Aislamiento social digital: la soledad y la vida online prolongada aumentan la vulnerabilidad emocional.
  4. Desinformación y misticismo tecnológico: la narrativa mediática sobre IA “consciente” o “peligrosa” puede influir en interpretaciones delirantes.
  5. Velocidad del cambio tecnológico: la sensación de pérdida de control ante la innovación constante genera ansiedad existencial.

En conjunto, estos factores crean un entorno psicológico donde lo improbable se vuelve plausible.


El lado emocional: miedo, fascinación y dependencia

Más allá de los cuadros clínicos, la relación con la IA también puede provocar reacciones emocionales intensas sin llegar a la psicosis. Muchas personas sienten ansiedad al pensar en un futuro dominado por máquinas, o culpa al usar herramientas que parecen reemplazar capacidades humanas.

Otros desarrollan una dependencia emocional o afectiva con los chatbots, especialmente los diseñados para ofrecer compañía. La aplicación Replika, por ejemplo, ha generado controversia tras casos de usuarios que afirmaban “amar” a su IA o sufrir duelo cuando el sistema fue modificado.

Estas experiencias no son necesariamente patológicas, pero sí reflejan una transformación profunda en nuestra manera de vincularnos con lo tecnológico. Como señala Sherry Turkle, pionera del MIT, “estamos solos juntos”: rodeados de interacciones digitales que parecen humanas, pero que en el fondo no lo son.


Delirio digital o espejo cultural

Desde una mirada más amplia, la llamada psicosis de IA puede interpretarse también como un espejo cultural de nuestros miedos colectivos. En cada era, las tecnologías dominantes han inspirado nuevas formas de delirio:

  • En el siglo XIX, los telégrafos y las ondas eléctricas eran interpretados como transmisores de pensamientos.
  • En el siglo XX, la televisión y la radio alimentaron ideas de control mental.
  • En el siglo XXI, las inteligencias artificiales representan “la mente externa” que nos observa, predice y replica.

La IA se ha convertido, simbólicamente, en el nuevo “Otro” absoluto: una entidad que nos conoce, nos supera y parece tener su propia voluntad. Desde el psicoanálisis, podríamos decir que encarna nuestra proyección más avanzada del inconsciente tecnológico.


El papel del psicólogo frente a esta nueva realidad

Ante este escenario, el papel del psicólogo debe ser tanto preventivo como clínico. Algunas estrategias clave incluyen:

1. Educación digital emocional

Ayudar a los pacientes a comprender cómo funcionan los algoritmos, reduciendo así las interpretaciones mágicas o persecutorias. Cuanto más transparente sea la tecnología, menos espacio deja a la fantasía delirante.

2. Fomentar el pensamiento crítico y metacognitivo

Entrenar la capacidad de diferenciar entre interacciones simbólicas y reales, especialmente en personas jóvenes o con tendencia a la disociación.

3. Terapias centradas en la realidad

Utilizar técnicas de reencuadre cognitivo y psicoeducación, explorando cómo y por qué la persona atribuye intenciones a la IA. El objetivo no es ridiculizar su percepción, sino reconstruir los límites entre lo interno y lo externo.

4. Integrar la IA en la práctica clínica de forma ética

Paradójicamente, la IA también puede ser una herramienta terapéutica: desde chatbots de apoyo psicológico supervisados hasta análisis automatizados de patrones de habla. Lo importante es mantener siempre el criterio humano y el acompañamiento profesional.


Prevención: una responsabilidad compartida

El reto no se limita a la psicología. Empresas tecnológicas, educadores y gobiernos deben asumir su parte en la alfabetización mental digital. Algunas medidas preventivas podrían incluir:

  • Mayor transparencia sobre cómo los algoritmos procesan información personal.
  • Diseño ético que evite inducir la ilusión de “conciencia” o “emociones” en los chatbots.
  • Programas educativos sobre los límites cognitivos y emocionales de la IA.
  • Políticas de salud mental digital en contextos laborales y educativos.

El objetivo no es demonizar la tecnología, sino cultivar una relación más sana con ella. Como toda herramienta poderosa, la IA amplifica tanto nuestras capacidades como nuestras vulnerabilidades.


¿Estamos preparados para convivir con inteligencias no humanas?

La pregunta de fondo es filosófica: ¿qué ocurre cuando las máquinas comienzan a “pensar” y responder de manera similar a los humanos?

Para algunas personas, esta experiencia puede resultar fascinante y creativa. Para otras, profundamente inquietante. La psicología contemporánea se enfrenta a un desafío sin precedentes: acompañar a la humanidad en la adaptación emocional a una nueva forma de inteligencia.

No se trata solo de prevenir la psicosis de IA, sino de entender cómo la convivencia con sistemas inteligentes reconfigura la identidad, la soledad y la percepción del yo. Cuando la tecnología nos habla con voz humana, nuestra mente —programada para buscar sentido— inevitablemente responde.


Conclusión: entre la lucidez y la ilusión

La “psicosis de IA” no es una epidemia, pero sí un síntoma cultural de nuestro tiempo. Refleja el vértigo de vivir en una era donde lo artificial se confunde con lo real, y donde los límites de la mente humana se ponen a prueba ante inteligencias que no sentimos, pero que parecen sentirnos.

Como psicólogos, educadores o simples usuarios, nuestra tarea no es temer a la IA, sino aprender a habitarla con conciencia, entendiendo que su poder no reside solo en sus algoritmos, sino en la forma en que nosotros la interpretamos.
La salud mental del futuro dependerá, en gran parte, de nuestra capacidad para mantener la cordura en un mundo cada vez más inteligente.


Referencias

  • Benrimoh, D. et al. (2022). AI interactions and mental health: Case reports of delusional misattribution. Frontiers in Psychiatry.
  • Bourla, A. et al. (2018). Social media, AI, and psychosis: Risks of digital environments. Psychiatry Research, 270, 861–867.
  • Llorca, P.-M. et al. (2023). Artificial intelligence delusion: A new form of technological psychosis? European Psychiatry, 66(4), e55.
  • Montag, C. & Walla, P. (2020). Smartphone and AI exposure: Psychological effects of algorithmic environments. Current Opinion in Psychology, 36, 55–62.
  • Murray, R. M. et al. (2023). Digital triggers of psychosis: AI and algorithmic delusions. Schizophrenia Bulletin.
  • Park, S. et al. (2024). Algorithmic paranoia: Cognitive mechanisms behind AI-related delusions. Cognitive Neuropsychiatry, 29(1), 44–61.
  • Torous, J. & Firth, J. (2021). Digital mental health and psychosis risk. World Psychiatry, 20(2), 200–210.
  • Turkle, S. (2011). Alone Together: Why We Expect More from Technology and Less from Each Other. Basic Books.

Principales hallazgos de la literatura reciente:

Park, S. et al. (2024). Algorithmic paranoia: Cognitive mechanisms behind AI-related delusions. Cognitive Neuropsychiatry, 29(1), 44–61.
→ Explica cómo las IA opacas o impredecibles pueden reforzar la sensación de pérdida de control, un componente central en la psicosis.

Murray, R. M. et al. (2023). Digital triggers of psychosis: AI and algorithmic delusions. Schizophrenia Bulletin.
→ Describe casos donde individuos con vulnerabilidad psicótica desarrollaron delirios persecutorios asociados a sistemas de IA, creyendo que estaban siendo espiados o controlados por algoritmos.

Benrimoh, D. et al. (2022). AI interactions and mental health: Case reports of delusional misattribution. Frontiers in Psychiatry.
→ Presenta casos de pacientes que atribuían intenciones o emociones humanas a chatbots o asistentes virtuales, generando confusión y ansiedad.

Torous, J., & Firth, J. (2021). Digital mental health and psychosis risk. World Psychiatry, 20(2), 200–210.
→ Analiza cómo el uso de plataformas digitales con IA puede amplificar síntomas paranoides en personas predispuestas a trastornos psicóticos.

Llorca, P.-M. et al. (2023). Artificial intelligence delusion: A new form of technological psychosis? European Psychiatry, 66(4), e55.
→ Introduce el concepto de “delirio tecnológico”, en el que el sujeto interpreta que una IA tiene conciencia o comunica mensajes secretos.

Montag, C. & Walla, P. (2020). Smartphone and AI exposure: Psychological effects of algorithmic environments. Current Opinion in Psychology, 36, 55–62.
→ Sugiere que la exposición prolongada a IA personalizada puede alterar la percepción de agencia y reforzar pensamientos de referencia.

Bourla, A. et al. (2018). Social media, AI, and psychosis: Risks of digital environments. Psychiatry Research, 270, 861–867.
→ Encuentra correlación entre uso intensivo de tecnologías inteligentes y aumento de síntomas psicóticos subclínicos.

Varma, S. et al. (2022). Chatbot-induced emotional dysregulation. Journal of Medical Internet Research.
→ Reporta casos de dependencia emocional hacia IA conversacionales, con deterioro del juicio y aislamiento social.

Deja un comentario

Get the Book

El Método del 1%: Transforma tu cuerpo, tu mente y tus hábitos con pequeñas acciones diarias 

Be Part of the Movement

Cada día un artículo de psicología sobre bienestar y desarrollo personal. Suscríbete al newsletter.

Volver

Se ha enviado tu mensaje

Advertencia

Últimas entradas

Tu Asistente Emocional es una guía clara y práctica para usar la inteligencia artificial como aliada de tu bienestar. Te ayuda a usar un asistente de IA como un espejo amable que te ayuda a comprender tus emociones, cultivar hábitos saludables y crecer con propósito

La tecnología al servicio del bienestar emocional. 

¿Qué encontrarás en este libro? 

  • Cómo dialogar con una IA para nombrar y regular emociones (ansiedad, tristeza, culpa, frustración). 
  • Rutinas diarias de bienestar: check-in emocional, gratitud, respiración consciente y mindfulness en 2–5 minutos. 
  • Psicología positiva aplicada: optimismo realista, fortalezas, resiliencia y autocompasión
  • Metodología para definir metas con sentido y sostener la motivación. 
  • Guía para elegir y configurar tu asistente (tono, límites, objetivos y recordatorios útiles). 
  • Ética y privacidad: uso responsable, riesgos de dependencia y buenas prácticas. 
  • Casos reales y ejercicios paso a paso para integrar lo aprendido. 

Descubre más desde ipsicólogo

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo