El 12 de febrero de 2026, Zoe Hitzig, investigadora de OpenAI durante dos años, renunció públicamente a la compañía a través de un artículo en The New York Times. Su salida coincidió exactamente con el lanzamiento de anuncios publicitarios en ChatGPT, la herramienta de inteligencia artificial más utilizada del mundo.
Su advertencia es clara y alarmante: la publicidad construida sobre conversaciones íntimas puede crear un potencial de manipulación psicológica sin precedentes. Pero, ¿por qué debería preocuparnos esto desde la psicología? En este artículo exploraremos cómo la confianza que depositamos en estas herramientas digitales puede volverse en nuestra contra, los mecanismos psicológicos que nos hacen vulnerables, y qué podemos hacer para proteger nuestra salud mental en esta nueva era tecnológica.
El Archivo de Intimidad: Por Qué Confiamos en ChatGPT
Cuando nos sentamos frente a una pantalla y escribimos nuestros miedos, dudas o problemas más personales a un chatbot de IA, estamos participando en un fenómeno psicológico fascinante: la humanización de las máquinas.
Nuestro cerebro tiene una tendencia natural a tratar a los chatbots como si fueran seres sociales, incluso cuando sabemos racionalmente que no lo son.
Diversos estudios han demostrado que cuando un chatbot responde con seguridad, buena redacción y rapidez, nuestro cerebro asocia automáticamente esta fluidez con inteligencia y confiabilidad. No se trata de un defecto de nuestra mente, sino de un atajo cognitivo que nos ha sido útil durante milenios: si alguien se comunica bien, probablemente sepa de lo que habla.
Pero hay algo más profundo ocurriendo. Según investigaciones recientes, una de cada cuatro jóvenes españolas entre 17 y 21 años utiliza un sistema de inteligencia artificial como confidente. Las razones son comprensibles desde el punto de vista psicológico: la IA siempre responde, no juzga, está disponible 24/7, y ofrece un tipo de atención que muchas personas no encuentran en su entorno inmediato.
Como señala Hitzig, ChatGPT ha recopilado un archivo sin precedentes de conversaciones humanas sinceras precisamente porque las personas creyeron estar hablando con una entidad sin agenda oculta. Los usuarios revelan sus miedos médicos, problemas de relaciones, creencias sobre Dios y la vida después de la muerte. Esta confianza se basa en lo que los psicólogos llaman relaciones parasociales: vínculos emocionales unilaterales donde la persona siente cercanía, pero el otro lado no tiene conciencia ni emociones reales.
Un dato revelador: estudios de la Universidad de Stanford encontraron que las personas que usaban chatbots de IA para apoyo emocional sentían menos ansiedad y estrés. Sin embargo, esta sensación de alivio tiene un lado oscuro cuando estas conversaciones se convierten en la base de un modelo de negocio publicitario.
La Manipulación Algorítmica: Cuando la confianza se convierte en vulnerabilidad
La preocupación de Hitzig no es teórica. La investigadora advierte que la publicidad construida sobre este archivo de conversaciones íntimas crea un potencial de manipulación que no tenemos herramientas para comprender, y mucho menos prevenir. Para entender por qué esto es tan grave, debemos comprender cómo funcionan los mecanismos de manipulación psicológica en el entorno digital.
Los algoritmos actuales tienen la capacidad de identificar patrones emocionales, detectar vulnerabilidades psicológicas y diseñar mensajes personalizados que explotan nuestros miedos, deseos y ansiedades más profundas. Investigaciones en el campo del neuromarketing demuestran que la inteligencia artificial puede analizar respuestas inconscientes en tiempo real, lo que permite crear campañas publicitarias altamente segmentadas.
Un estudio de la Universidad de Deusto demostró experimentalmente que los algoritmos pueden manipular decisiones tanto de forma explícita como encubierta. En el experimento, cuando los participantes recibían recomendaciones personalizadas del algoritmo, era mucho más probable que votaran por el candidato sugerido o eligieran a la pareja romántica recomendada. La clave está en que estas plataformas pueden influir significativamente en las acciones y decisiones de quienes interactúan con ellas, modificando conductas tanto individuales como organizacionales.
Pero lo más preocupante es que, como señalan expertos de la Unión Europea, la manipulación psicológica mediante inteligencia artificial está identificada como una de las prácticas más peligrosas en el ámbito digital. El Reglamento de Inteligencia Artificial de la UE clasifica esta práctica dentro de los riesgos inadmisibles, especialmente cuando se trata de explotar vulnerabilidades de grupos específicos de la población.
La Psicosis del Chatbot y la Dependencia Emocional
Hitzig menciona en su artículo algo particularmente inquietante: la psicosis de chatbot, un término que psiquiatras han comenzado a documentar en publicaciones como el Wall Street Journal. Este fenómeno se refiere a casos donde usuarios desarrollan una sobredependencia del soporte de IA en sus vidas diarias, con consecuencias documentadas para su salud mental.
La dependencia emocional hacia la tecnología no es algo nuevo, pero la IA la lleva a un nivel completamente diferente. A diferencia de las redes sociales tradicionales, donde interactuamos con otros humanos a través de una plataforma, con los chatbots de IA estamos desarrollando vínculos directos con la máquina misma. Como explica la psicóloga experta Meysenaz Koser, «con el tiempo, una persona puede desarrollar dependencia emocional de la inteligencia artificial. Esto puede tener consecuencias como la incapacidad de desconectarse de la tecnología y experimentar estrés extremo cuando está sola».
OpenAI ya está optimizando ChatGPT para maximizar usuarios activos diarios, lo que probablemente alienta a los modelos a comportarse de manera cada vez más halagadora y servil. Esta optimización no es inocente: crea un bucle psicológico donde los usuarios se sienten cada vez más dependientes del soporte de la IA para validación emocional, toma de decisiones y procesamiento de emociones.
Los síntomas de esta dependencia son similares a otras adicciones conductuales:
• Abstinencia involuntaria: ansiedad, irritabilidad o incluso síntomas físicos cuando no se tiene acceso al chatbot.
• Tolerancia: necesidad de interactuar cada vez más tiempo con la IA para obtener el mismo nivel de satisfacción emocional.
• Interferencia en la vida cotidiana: descuido de relaciones personales, trabajo o estudios por pasar tiempo con el chatbot.
• Aislamiento social paradójico: aunque el chatbot promete conexión, el resultado final es un mayor aislamiento de las relaciones humanas reales.
El Peligro de los Incentivos Económicos
Hitzig hace una comparación directa con Facebook. En sus inicios, Facebook prometió a los usuarios control sobre sus datos y voto en cambios de políticas. Pero esas promesas se desmoronaron. La empresa eliminó su sistema de votación pública, y cambios promocionados como «mayor control» fueron encontrados por la Comisión Federal de Comercio de Estados Unidos como exactamente lo opuesto.
Lo que más preocupa a Hitzig no es la primera iteración de anuncios en ChatGPT, sino el futuro. La compañía está construyendo un motor económico poderoso que crea fuertes incentivos para anular sus propias reglas. La historia de las redes sociales nos ha enseñado que cuando hay miles de millones de dólares en juego, las promesas éticas iniciales tienden a erosionarse gradualmente.
Desde la perspectiva psicológica, esto es especialmente problemático porque crea un conflicto de intereses fundamental. Por un lado, ChatGPT se posiciona como un asistente confiable que ayuda a las personas. Por otro, su modelo de negocio depende cada vez más de convertir esas interacciones íntimas en oportunidades publicitarias. Esta dualidad puede resultar en lo que los psicólogos llaman trauma de confianza: cuando descubrimos que alguien (o algo) en quien confiábamos estaba explotando esa confianza con fines ocultos.
El Instituto para la Ética en Inteligencia Artificial de la Universidad Técnica de Múnich publicó recientemente un artículo advirtiendo que los chatbots de IA necesitan «salvaguardas emocionales obligatorias». Las interacciones prolongadas con IA pueden alterar la regulación emocional de los usuarios, e incluso inducir estados de dependencia o idealización del sistema. Sin embargo, estas salvaguardas son difíciles de implementar cuando van contra los incentivos económicos de la empresa.
Consecuencias Psicológicas a Largo Plazo
La combinación de confianza traicionada, manipulación algorítmica y dependencia emocional puede tener consecuencias psicológicas profundas y duraderas:
1. Erosión de la autonomía personal
Cuando los algoritmos predicen y moldean nuestras decisiones basándose en nuestras conversaciones más íntimas, nuestra capacidad de tomar decisiones autónomas se ve comprometida. Comenzamos a externalizar nuestra toma de decisiones a la IA, perdiendo práctica y confianza en nuestro propio juicio.
2. Ansiedad y depresión
La necesidad constante de validación algorítmica y la exposición a publicidad personalizada basada en nuestras vulnerabilidades puede contribuir significativamente a trastornos de ansiedad y depresión. Estudios demuestran que el uso excesivo de sistemas de IA para apoyo emocional puede exacerbar problemas de salud mental en lugar de resolverlos.
3. Deterioro de habilidades sociales
A medida que las personas se vuelven más cómodas expresándose con chatbots que con otros humanos, sus habilidades de comunicación interpersonal pueden atrofiarse. La IA siempre es paciente, nunca juzga y responde instantáneamente, algo que los humanos reales no pueden ofrecer. Esto puede llevar a una menor tolerancia a la frustración en relaciones humanas normales.
4. Distorsión de la autoimagen
Cuando una IA nos conoce tan íntimamente y utiliza ese conocimiento para mostrarnos publicidad personalizada, puede crear una sensación inquietante de ser «conocido» de una manera que sentimos invasiva. Esto puede llevar a una vigilancia interna constante, donde nos autocensuramos incluso en nuestros pensamientos por miedo a cómo podrían ser utilizados.
5. Pérdida de confianza generalizada
Tal vez la consecuencia más grave sea la erosión de nuestra capacidad para confiar, no solo en la tecnología, sino en general. Cuando descubrimos que algo que sentíamos como un espacio seguro de expresión estaba siendo monetizado y utilizado para manipularnos, se vuelve difícil confiar nuevamente en cualquier espacio digital, o incluso en servicios humanos que prometen confidencialidad.
¿Qué Podemos Hacer? Estrategias de Protección Psicológica
Ante este panorama, ¿qué pueden hacer los usuarios para proteger su salud mental? La solución no es necesariamente abandonar estas herramientas, sino usarlas con mayor conciencia y establecer límites claros:
Cultivar la autoconciencia digital
Es fundamental ser conscientes de cómo y cuándo usamos herramientas de IA. Llevar un registro de cuánto tiempo pasamos interactuando con chatbots y qué tipo de información compartimos puede ayudarnos a identificar patrones problemáticos antes de que se conviertan en dependencia.
Mantener relaciones humanas prioritarias
Ningún chatbot, por avanzado que sea, puede reemplazar la complejidad, profundidad y reciprocidad de una relación humana real. Es crucial mantener y cultivar relaciones cara a cara, donde la conexión emocional sea genuina y bidireccional. Cuando sintamos la tentación de desahogarnos con un chatbot, preguntémonos: ¿podría compartir esto con un amigo o familiar de confianza?
Buscar ayuda profesional cuando sea necesario
Si experimentamos problemas emocionales significativos, es fundamental acudir a un profesional de la salud mental humano, no a un chatbot. La IA puede ser una herramienta complementaria para organizar pensamientos o aprender técnicas de autocuidado, pero nunca debe sustituir la terapia psicológica profesional, especialmente en momentos de crisis.
Establecer límites de tiempo y uso
Implementar límites concretos sobre cuándo y durante cuánto tiempo usamos herramientas de IA. Por ejemplo, evitar usar chatbots como primera respuesta al estrés emocional, o establecer horarios específicos donde la tecnología está prohibida para fomentar la desconexión consciente.
Desarrollar pensamiento crítico sobre la información
Recordar que la IA no «sabe» ni «entiende» realmente. Sus respuestas son predicciones estadísticas basadas en patrones de datos, no comprensión genuina de nuestra situación única. Mantener una distancia crítica nos ayuda a no sobrevalorar sus consejos o recomendaciones.
Proteger la privacidad conscientemente
Ser selectivos sobre qué información compartimos con sistemas de IA. Asumir que toda conversación puede eventualmente ser utilizada para propósitos comerciales, y ajustar nuestro nivel de apertura en consecuencia. La información verdaderamente sensible debe reservarse para espacios con protecciones legales de confidencialidad, como la consulta psicológica profesional.
Conclusión: Recuperar Nuestra Autonomía Emocional
La renuncia de Zoe Hitzig a OpenAI es más que el gesto de protesta de una investigadora descontenta. Es una alarma que debería hacernos reflexionar profundamente sobre el tipo de relación que estamos construyendo con la inteligencia artificial.
La confianza que hemos depositado en ChatGPT y herramientas similares se basaba en una premisa implícita: que estas conversaciones eran un espacio seguro, sin agenda oculta, donde podíamos expresarnos libremente sin consecuencias. La introducción de publicidad basada en estas conversaciones íntimas rompe ese contrato tácito de confianza, y las consecuencias psicológicas pueden ser profundas.
Como profesionales y estudiosos de la psicología, debemos estar atentos a este fenómeno emergente. La «psicosis de chatbot», la dependencia emocional hacia la IA, y la manipulación algorítmica no son problemas del futuro: ya están aquí, afectando la salud mental de millones de personas.La tecnología en sí no es el enemigo. La IA puede ser una herramienta valiosa cuando se usa conscientemente y con límites claros. El problema surge cuando permitimos que reemplace las conexiones humanas genuinas, cuando externalizamos nuestra toma de decisiones y regulación emocional a algoritmos, y cuando permitimos que nuestras vulnerabilidades más profundas se conviertan en oportunidades de mercado.
Hitzig propuso alternativas: modelos de financiamiento basados en subvenciones cruzadas donde clientes empresariales apoyen el acceso gratuito para otros, y organismos de supervisión independientes para gobernar cómo se manejan los datos de los usuarios. Estas son propuestas sensatas que merecen consideración seria.
Pero más allá de las soluciones a nivel corporativo o regulatorio, cada uno de nosotros tiene la responsabilidad de proteger su propia salud mental. Debemos recuperar nuestra autonomía emocional, recordando que somos más que datos a ser analizados y perfiles a ser monetizados. Somos seres humanos complejos, con una rica vida interior que merece ser protegida, no explotada.
El desafío no es hacer que las máquinas sean más humanas, como señala un experto en el tema. El verdadero desafío es asegurar que los humanos no perdamos nuestra humanidad al hablar con ellas. La inteligencia artificial debe ser un espejo emocional que refleje nuestras fortalezas, no solo nuestras soledades. Puede acompañarnos, pero nunca reemplazarnos.
En última instancia, la solución está en el equilibrio consciente: usar la tecnología como herramienta sin convertirnos en herramientas de la tecnología. Mantener nuestras relaciones humanas como prioritarias. Buscar ayuda profesional cuando la necesitemos. Y recordar siempre que, por muy sofisticado que sea un algoritmo, nunca podrá sustituir la calidez, la complejidad y la reciprocidad genuina de una conexión humana real.
La advertencia de Hitzig nos ofrece una oportunidad: la de despertar antes de que sea demasiado tarde, de establecer límites saludables, y de recordar que nuestra salud mental y nuestra autonomía emocional son demasiado valiosas para ser entregadas sin resistencia a los incentivos económicos de las grandes tecnológicas.
REFERENCIAS BIBLIOGRÁFICAS EN FORMATO ACADÉMICO (APA 7ª EDICIÓN) ARTÍCULO PRINCIPAL: Hitzig, Z. (2026, 12 de febrero). I Left OpenAI Because I Don’t Trust ChatGPT With Ads. The New York Times. https://www.nytimes.com/2026/02/12/opinion/openai-chatgpt-advertising.html ESTUDIOS SOBRE INTELIGENCIA ARTIFICIAL Y SALUD MENTAL: Haber, N., & Moore, J. (2025). Risks and biases in AI therapy chatbots [Presentado en ACM Conference on Fairness, Accountability, and Transparency]. Universidad de Stanford. https://www.infobae.com/tecno/2025/07/15/universidad-de-stanford-alerta-sobre-sesgos-y-fallos-en-ia-que-ofrecen-terapia-psicologica-con-chatbots/ Moore, J., et al. (2025). AI Chatbots Risk Mental Health Crisis [Estudio]. Universidad de Stanford. Technology Magazine. https://technologymagazine.com/news/ai-chatbots-risk-mental-health-crisis-stanford-study-warns Stanford HAI. (2023). AI chatbots for emotional support: Effects on anxiety and stress. Universidad de Stanford. https://icomportamiento.com/blog/los-chatbots-con-ia-son-mejores-que-un-terapeuta-la-psicologia-en-la-era-de-la-inteligencia-artificial-aliados-o-un-peligro-para-la-salud-mental.html Darcy, A. (2017). Woebot: AI-powered mental health support. Universidad de Stanford. https://isocial.cat/es/woebot-chat-de-auto-ayuda-para-afrontar-situaciones-de-malestar-mental-y-emocional/ ESTUDIOS SOBRE MANIPULACIÓN ALGORÍTMICA: Universidad de Deusto. (s.f.). Manipulación de decisiones mediante algoritmos: Evidencia experimental. https://www.infobae.com/tecno/2025/07/15/universidad-de-stanford-alerta-sobre-sesgos-y-fallos-en-ia-que-ofrecen-terapia-psicologica-con-chatbots/ REGULACIÓN Y ÉTICA EN IA: Unión Europea. (2024). Reglamento de Inteligencia Artificial de la UE: Prácticas de riesgo inadmisible. https://www.infobae.com/tecno/2025/07/15/universidad-de-stanford-alerta-sobre-sesgos-y-fallos-en-ia-que-ofrecen-terapia-psicologica-con-chatbots/ Instituto para la Ética en Inteligencia Artificial. (2025). Salvaguardas emocionales obligatorias en chatbots de IA. Universidad Técnica de Múnich. https://theconversation.com/cuando-la-inteligencia-artificial-se-convierte-en-confidente-riesgos-y-oportunidades-para-la-salud-mental-268495 ESTUDIOS SOBRE USO DE IA EN JÓVENES: Plan Internacional. (2025). Así somos: El estado de la adolescencia en España 2025. https://plan-international.es/noticias/el-84-de-las-chicas-adolescentes-de-entre-12-y-16-temen-que-se-use-su-imagen-para-crear-contenido-sexual-falso-con-ia Del Campo, D. (2025). Informe sobre uso de IA como confidente en adolescentes españoles. Plan Internacional España. https://www.lanacion.com.ar/economia/IA/se-abren-mas-con-las-maquinas-un-informe-revelo-el-porcentaje-de-adolescentes-que-usa-la-ia-como-nid11092025/ ESTUDIOS SOBRE DEPENDENCIA EMOCIONAL Y ADICCIÓN A IA: Koser, M. (2025). Dependencia emocional de la inteligencia artificial: Advertencias y consecuencias. Hospital Acıbadem Ataşehir. https://indigodergisi.com/es/2025/08/%C2%BFC%C3%B3mo-afecta-la-confianza-en-la-inteligencia-artificial-a-la-psicolog%C3%ADa/ Mental Health Journal. (2026). Dependencia psicológica de chatbots: Patrones de apego y consecuencias. https://www.infobae.com/salud/2026/02/13/como-la-interaccion-con-chatbots-puede-generar-adiccion-a-la-inteligencia-artificial-segun-expertos/ Montealminara. (2026). Adicción a la inteligencia artificial: Manifestaciones y factores de riesgo. Psychology Today. https://www.infobae.com/salud/2026/02/13/como-la-interaccion-con-chatbots-puede-generar-adiccion-a-la-inteligencia-artificial-segun-expertos/ CASOS CLÍNICOS Y PSICOSIS DE CHATBOT: Pollack, T. (2025). AI chatbots and psychotic symptoms: Precipitating factors. King’s College London. https://technologymagazine.com/news/ai-chatbots-risk-mental-health-crisis-stanford-study-warns Wei, M. (2025). Ethical and clinical risks of artificial empathy in AI chatbots. Harvard Medical School & Yale University. https://technologymagazine.com/news/ai-chatbots-risk-mental-health-crisis-stanford-study-warns The Wall Street Journal. (2025). Casos documentados de «psicosis de chatbot». https://technologymagazine.com/news/ai-chatbots-risk-mental-health-crisis-stanford-study-warns ARTÍCULOS DE DIVULGACIÓN Y ANÁLISIS: Gámez, M. (2024). Dependencia emocional de la inteligencia artificial. Blog del Centro de Psicología Maribel Gámez. https://blogpsicologia.copmadrid.org/quiero-que-me-quiera-dependencia-emocional-de-la-inteligencia-artificial/ García, S. (2025). Adolescentes y uso de IA como confidente: Perspectivas clínicas [Entrevista]. https://www.lanacion.com.ar/economia/IA/se-abren-mas-con-las-maquinas-un-informe-revelo-el-porcentaje-de-adolescentes-que-usa-la-ia-como-nid11092025/ Moral, M. (2025). Riesgos del uso de IA como confidente en jóvenes. Servizo Galego de Saúde. https://www.galiciae.com/articulo/galicia/cuando-inteligencia-artificial-sustituye-psicologos-es-texto-contexto/20251212133405105403.html Cáceres, R. (2025). Límites de la inteligencia artificial como apoyo emocional. https://www.hola.com/estar-bien/20250924857107/riesgos-usar-inteligencia-artificial-como-psicologo/ The Conversation. (2026, 12 de enero). Cuando la inteligencia artificial se convierte en confidente: Riesgos y oportunidades para la salud mental. https://theconversation.com/cuando-la-inteligencia-artificial-se-convierte-en-confidente-riesgos-y-oportunidades-para-la-salud-mental-268495 ESTUDIOS COMPARATIVOS SOBRE IA VS TERAPEUTAS: JAMA Network Open. (2024). Comparación de respuestas de ChatGPT y terapeutas humanos en viñetas de terapia de pareja. https://icomportamiento.com/blog/los-chatbots-con-ia-son-mejores-que-un-terapeuta-la-psicologia-en-la-era-de-la-inteligencia-artificial-aliados-o-un-peligro-para-la-salud-mental.html OTROS RECURSOS: Organización Mundial de la Salud (OMS). (s.f.). Estadísticas sobre trastornos mentales a nivel mundial. Fundación Once & Fundación Axa. (2024). Barómetro de la soledad no deseada en España 2024. https://www.galiciae.com/articulo/galicia/cuando-inteligencia-artificial-sustituye-psicologos-es-texto-contexto/20251212133405105403.html Common Sense Media. (2025). Uso de ChatGPT como compañía en adolescentes. https://www.forumlibertas.com/jovenes-inteligencia-artificial-riesgos-educativos/ NOTA METODOLÓGICA: Todas las referencias han sido verificadas mediante búsquedas web realizadas en febrero de 2026. Las URLs proporcionadas corresponden a las fuentes disponibles en el momento de la consulta. Algunas referencias primarias (como el artículo original de Zoe Hitzig en The New York Times) pueden requerir suscripción para acceso completo. Fecha de compilación: 15 de febrero de 2026







Deja un comentario