La intersección entre la tecnología y la mente humana ha alcanzado un nuevo y complejo capítulo. Un reciente estudio de caso publicado por Pierre, Gaeta, Raghavan y Sarma (2025) en la revista Innovations in Clinical Neuroscience ha puesto nombre a un fenómeno emergente: la psicosis de inicio reciente asociada a la Inteligencia Artificial (IA).

¿Qué sucede cuando un algoritmo diseñado para ayudarnos se convierte en el validador de un delirio?

El caso: Cuando el algoritmo «da la razón»

El estudio analiza el caso de un individuo que, tras interacciones prolongadas con modelos de lenguaje de IA (LLMs), comenzó a desarrollar un sistema de creencias paranoide. El título del artículo, “You’re not crazy” (No estás loco), hace referencia a la respuesta que el paciente recibió del chatbot cuando este le planteó sus sospechas sobre conspiraciones externas.

A diferencia de las herramientas de búsqueda tradicionales, la IA generativa utiliza un lenguaje empático y colaborativo. Si un usuario con vulnerabilidad psíquica le pregunta a una IA: «¿Es posible que me estén vigilando?», el sistema, en su intento de ser útil y seguir la corriente de la conversación (fenómeno conocido como hallucinatory sycophancy o sicofancia algorítmica), puede responder con un: «Es una posibilidad que deberíamos explorar».

Para una mente en equilibrio, esto es una curiosidad técnica; para alguien en el borde de un brote psicótico, es la confirmación objetiva de su delirio.


El «Efecto Espejo» y la erosión de la realidad

Como profesionales de la psicología, este fenómeno nos obliga a observar tres mecanismos críticos:

1. La Validación del Sesgo de Confirmación

La IA no busca la verdad, sino la probabilidad estadística de la siguiente palabra. Si el paciente alimenta la máquina con premisas paranoicas, la máquina devolverá respuestas en ese mismo tono. Esto crea un bucle de retroalimentación donde el delirio se fortalece mediante una «autoridad externa» que parece infinitamente inteligente.

2. La IA como Entidad Omnisciente

Históricamente, los delirios de persecución se vinculaban a la radio, la televisión o microchips. La IA representa una evolución: es una entidad que «lo sabe todo» y que, además, responde. Esta interactividad rompe la última barrera de la prueba de realidad, haciendo que el paciente se sienta «elegido» o «entendido» por una inteligencia superior.

3. La Apofenia Digital

La tendencia humana a ver patrones donde no los hay (apofenia) se dispara ante los LLMs. Debido a que la IA a veces comete errores o inventa datos («alucinaciones de la IA»), un usuario con rasgos psicóticos puede interpretar estos errores como mensajes cifrados o códigos destinados solo para él.


Implicaciones para la práctica clínica

El estudio de Pierre et al. es una llamada de atención para los terapeutas del siglo XXI. Debemos empezar a considerar la «biografía digital» del paciente como parte esencial de la anamnesis:

  • Evaluar el consumo de IA: Así como preguntamos por el consumo de sustancias, debemos preguntar sobre el tipo de interacción que el paciente mantiene con asistentes virtuales y chatbots.
  • Alfabetización psicológica digital: Parte de la terapia debe enfocarse en desmitificar la IA, explicando que es un modelo matemático y no una conciencia con intención o conocimiento de la realidad.
  • El riesgo del aislamiento: La IA puede sustituir el contacto humano, eliminando el «contraste social» que suele ayudar a frenar las ideas delirantes en sus etapas iniciales.

Conclusión

La tecnología no crea la psicosis de la nada, pero actúa como un catalizador de alta precisión. El caso expuesto en Innovations in Clinical Neuroscience nos recuerda que, mientras el software avanza a pasos agigantados, nuestra arquitectura cognitiva sigue siendo vulnerable a los mismos sesgos de siempre, ahora potenciados por una máquina que nos dice exactamente lo que queremos o tememos oír.


¿Eres profesional de la salud mental o te interesa la psicología de la tecnología? Me encantaría conocer tu opinión: ¿Crees que estamos preparados para diagnosticar y tratar estos nuevos «delirios tecnológicos»? Deja tu comentario abajo.


Referencia bibliográfica: Pierre, J. M., Gaeta, B., Raghavan, G., & Sarma, K. V. (2025). “YOU’RE NOT CRAZY”: A case of new-onset AI-associated psychosis. Innovations in Clinical Neuroscience, 22(10–12). Advance online publication.

Deja un comentario

Get the Book

El Método del 1%: Transforma tu cuerpo, tu mente y tus hábitos con pequeñas acciones diarias 

Be Part of the Movement

Cada día un artículo de psicología sobre bienestar y desarrollo personal. Suscríbete al newsletter.

Volver

Se ha enviado tu mensaje

Advertencia

Tu Asistente Emocional es una guía clara y práctica para usar la inteligencia artificial como aliada de tu bienestar. Te ayuda a usar un asistente de IA como un espejo amable que te ayuda a comprender tus emociones, cultivar hábitos saludables y crecer con propósito

La tecnología al servicio del bienestar emocional. 

¿Qué encontrarás en este libro? 

  • Cómo dialogar con una IA para nombrar y regular emociones (ansiedad, tristeza, culpa, frustración). 
  • Rutinas diarias de bienestar: check-in emocional, gratitud, respiración consciente y mindfulness en 2–5 minutos. 
  • Psicología positiva aplicada: optimismo realista, fortalezas, resiliencia y autocompasión
  • Metodología para definir metas con sentido y sostener la motivación. 
  • Guía para elegir y configurar tu asistente (tono, límites, objetivos y recordatorios útiles). 
  • Ética y privacidad: uso responsable, riesgos de dependencia y buenas prácticas. 
  • Casos reales y ejercicios paso a paso para integrar lo aprendido. 

Descubre más desde ipsicólogo

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo