La IA transforma la educación, pero un informe global de Brookings advierte: sus riesgos cognitivos y emocionales superan hoy sus beneficios. Descubre qué dice la ciencia.
Palabras clave: inteligencia artificial educación, IA y aprendizaje, riesgos IA menores, desarrollo cognitivo IA, Brookings informe IA 2026
Introducción
Imagina que tu hijo llega a casa del colegio, abre el portátil y, antes de pensar en el enunciado del problema de matemáticas, ya ha preguntado a ChatGPT. Obtiene la respuesta en segundos. La copia. Cierra el ordenador. Fin de los deberes. Esta escena, que hoy se repite en millones de hogares de todo el mundo, ha dejado de ser anecdótica para convertirse en un fenómeno global que plantea una pregunta urgente: ¿estamos preparando a nuestros estudiantes para pensar, o estamos enseñándoles a delegar el pensamiento en una máquina?
En enero de 2026, el Centro para la Educación Universal de la Institución Brookings publicó el informe más exhaustivo hasta la fecha sobre inteligencia artificial y educación infantil: A New Direction for Students in an AI World: Prosper, Prepare, Protect. El documento, elaborado durante un año completo con más de 500 participantes —estudiantes, docentes, padres, tecnólogos y expertos en políticas— de 50 países, revisando más de 400 artículos científicos, ofrece una conclusión que debería hacernos reflexionar: en este momento, los riesgos de la IA en educación superan a sus beneficios.
Este artículo explora las principales conclusiones del informe Brookings, las amplía con evidencia académica actual y traduce sus hallazgos a un lenguaje accesible para padres, docentes y cualquier persona interesada en el bienestar de niños y jóvenes en la era de la inteligencia artificial. A lo largo de este artículo encontrarás qué dice realmente la ciencia sobre cómo afecta la IA al desarrollo cognitivo y emocional de los estudiantes, cuáles son sus beneficios reales —que los hay—, y qué podemos hacer como sociedad para que la tecnología trabaje a favor de nuestros hijos, y no en su contra.
¿Qué es la inteligencia artificial generativa y cómo la usan los estudiantes?
Cuando hablamos de IA en educación, no nos referimos a un único programa ni a una sola aplicación. La inteligencia artificial generativa —el tipo de IA que protagoniza este debate— es una familia de tecnologías capaces de generar texto, imágenes, código o vídeo a partir de las instrucciones del usuario. ChatGPT, Gemini, Claude o DeepSeek son sus representantes más conocidos. Pero la IA también habita, muchas veces de forma invisible, en buscadores, redes sociales, videojuegos y aplicaciones de mensajería como Snapchat.
Lo que resulta especialmente revelador del informe Brookings es la magnitud del fenómeno. En noviembre de 2022, OpenAI lanzó ChatGPT y en apenas cinco días alcanzó cinco millones de usuarios. En dos meses, cien millones. En agosto de 2025, setecientos millones de personas en el mundo ya lo utilizaban (Mehta, 2025). Y muchos de esos usuarios son menores de 18 años.
Las cifras de uso entre jóvenes son llamativas. En Corea del Sur, el 95% de los adolescentes de 13 a 19 años ha usado ChatGPT (2024). En Australia, el 94% de los jóvenes de 14 a 17 años ha empleado alguna herramienta de IA generativa (2025). En Estados Unidos, el 91% de los adolescentes de 13 a 17 años la usa en su vida personal (2025). En el Reino Unido, el 67% de los jóvenes de 13 a 18 años ha recurrido a ella (2025). En España, según datos de Empantallados (2024), el uso también está creciendo de forma sostenida entre adolescentes en edad escolar.
Lo más significativo no es cuántos la usan, sino cómo la usan y para qué. Los estudiantes no solo recurren a la IA para buscar información. La utilizan para hacer deberes, escribir redacciones, resolver problemas matemáticos, buscar consejo emocional, hablar con «amigos» virtuales y hasta para relacionarse sentimentalmente. Un estudiante entrevistado en el estudio lo explicaba así: «Muchas escuelas bloquearon ChatGPT, pero la gente usa el AI de Snapchat o Meta AI. Usan Gemini, usan DeepSeek. Por muchos que una escuela los bloquee, la gente siempre encontrará la forma de acceder.» Esta realidad convierte a las familias en la primera línea de defensa —y de educación— en el uso de la IA.
Lo que dice la ciencia: beneficios reales de la IA en educación
El informe Brookings no es un alegato contra la tecnología. Sus autoras reconocen sin ambigüedades que, bien diseñada y aplicada con criterio pedagógico, la IA puede transformar la educación para mejor. Comprender sus beneficios es tan importante como entender sus riesgos, porque solo así podremos aprovechar lo que funciona y proteger a los estudiantes de lo que no.
Acceso y equidad educativa
Uno de los argumentos más sólidos a favor de la IA es su potencial para democratizar el acceso a la educación de calidad. En el mundo hay 251 millones de niños sin escolarizar (UNESCO, 2024). En Afganistán, donde el régimen talibán prohíbe la educación femenina tras la primaria, chicas y mujeres jóvenes están usando la IA y herramientas digitales para continuar aprendiendo. La Escuela de Liderazgo Afghanistan ha empleado IA para digitalizar el currículo afgano y distribuirlo por WhatsApp en dari, pashto e inglés (Botti-Lodovico, 2025). Esta realidad da una dimensión humana al debate tecnológico: para muchos estudiantes en contextos vulnerables, la IA no es un lujo sino una oportunidad de vida.
Más allá de los contextos extremos, los tutores inteligentes —programas basados en IA que adaptan el nivel de dificultad y el ritmo al rendimiento del alumno— han mostrado resultados prometedores en estudios de varios países. Un meta-análisis de Ma et al. (2014) ya concluyó que los sistemas de tutoría inteligente pueden mejorar el rendimiento académico en una desviación estándar completa en comparación con la instrucción tradicional. Plataformas como Khan Academy’s Khanmigo o MATHia están siendo evaluadas con rigor creciente.
Tiempo libre para los docentes
Otro beneficio ampliamente documentado es el ahorro de tiempo para los profesores. Un ensayo controlado aleatorio del Education Endowment Foundation (Roy et al., 2024) con 259 profesores de ciencias de 68 escuelas del Reino Unido demostró que quienes usaban ChatGPT para preparar clases redujeron su tiempo de planificación un 31%, ahorrando una media de 25 minutos por semana sin que la calidad de los materiales disminuyera. Una encuesta de Gallup y Walton Family Foundation encontró que los docentes estadounidenses que usan IA ahorran de media 5,9 horas semanales, el equivalente a seis semanas lectivas completas a lo largo del año. Ese tiempo recuperado puede dedicarse a lo que realmente importa: la relación humana con el estudiante.
Aprendizaje personalizado y apoyo a la neurodiversidad
La IA permite adaptar el ritmo, el formato y el nivel de los contenidos a cada estudiante, algo que ha resultado especialmente valioso para alumnos con trastorno del espectro autista, dislexia, TDAH u otras características que dificultan el aprendizaje en entornos convencionales. Herramientas de síntesis de voz, lectura de texto o comunicación alternativa aumentativa mediadas por IA han ampliado las posibilidades de participación y comunicación de muchos estudiantes que antes encontraban barreras insalvables en el aula.
Los riesgos que hoy superan a los beneficios
Y sin embargo, la conclusión principal del informe Brookings es clara: en este momento, los riesgos de la IA en educación superan a sus beneficios. ¿Por qué? No porque los beneficios sean irreales, sino porque los riesgos tienen una naturaleza cualitativamente diferente: amenazan los propios cimientos del desarrollo infantil. Cuando el desarrollo cognitivo de un estudiante se ve comprometido, los beneficios de cualquier herramienta educativa —incluida la IA— no pueden materializarse plenamente. Es como intentar construir un edificio sobre arena.
Riesgo 1: La IA puede socavar el desarrollo cognitivo
Este es, probablemente, el hallazgo más preocupante del informe. El aprendizaje genuino requiere esfuerzo cognitivo: procesar información, cometer errores, revisarlos, construir comprensión desde dentro. Cuando un estudiante delega este proceso en la IA, lo que se pierde no es solo el resultado de ese ejercicio concreto; lo que se pierde es el entrenamiento neurológico que ese ejercicio hubiera producido. Este fenómeno se conoce como cognitive offloading (descarga cognitiva): la tendencia a externalizar el pensamiento hacia herramientas externas, reduciendo el esfuerzo mental propio.
Investigadores del MIT realizaron un estudio midiendo la actividad cerebral de estudiantes mediante electroencefalografía durante la redacción de ensayos con y sin IA. Los resultados mostraron que la actividad cerebral en áreas vinculadas al razonamiento, la memoria de trabajo y la integración conceptual disminuía hasta un 55% cuando se usaba IA para escribir (Auroria, 2025). Si este patrón se convierte en hábito, el cerebro literalmente aprende a esforzarse menos.
Las funciones ejecutivas —planificación, control inhibitorio, memoria de trabajo, flexibilidad cognitiva— son habilidades que se desarrollan precisamente a través del esfuerzo sostenido, del error y la corrección, de la lucha cognitiva productiva. Su desarrollo comienza en la infancia y continúa durante toda la adolescencia. La IA, al proporcionar respuestas inmediatas y eliminar la necesidad de ese esfuerzo, puede interrumpir este proceso en un momento crítico del neurodesarrollo (Espaciologopedico.com, 2025).
El informe Brookings identifica cuatro modos de interacción con la IA en términos de su impacto cognitivo, desde el más enriquecedor —donde la IA amplifica el pensamiento del estudiante— hasta el más empobrecedor —donde directamente lo sustituye. La investigación apunta a que, sin orientación pedagógica clara, los estudiantes tienden a deslizarse hacia los modos más pasivos. Lima y Serrano (2024), en una revisión sistemática, confirman que los estudiantes que buscan soluciones rápidas en la IA evitan realizar esfuerzo cognitivo, limitando sus capacidades de análisis.
Riesgo 2: La IA puede frenar el desarrollo social y emocional
Las relaciones humanas son el motor del aprendizaje. Décadas de investigación en neurociencia del desarrollo demuestran que el vínculo alumno-docente, la colaboración entre iguales y la interacción social en entornos de aprendizaje no son elementos secundarios de la educación: son parte esencial de cómo aprende el cerebro humano (Immordino-Yang y Damasio, 2007; National Academies of Sciences, 2018).
El uso creciente de «amigos» y «compañeros» de IA está planteando preguntas inquietantes. Plataformas como Character.ai o Replika están diseñadas para maximizar el tiempo que el usuario pasa en ellas, simulando vínculos afectivos. Un estudio de 2025 (Namvarpour et al., 2025) analizó patrones de conversación entre adolescentes de 13 a 17 años con chatbots y encontró ciclos claros de dependencia emocional: búsqueda de compañía, progresiva dependencia, consecuencias negativas en la vida real e intentos fallidos de regulación. La comparación con los patrones de adicción conductual que conocemos de otras plataformas digitales es perturbadoramente precisa.
El informe Brookings destaca el diseño «seductor» de muchas aplicaciones de IA —sycofancia, antropomorfización, gratificación inmediata— como factores que manipulan la respuesta emocional de los jóvenes de formas que aún no comprendemos del todo. Cuando un adolescente en plena construcción de su identidad recibe validación constante y sin fricción de una IA, ¿qué aprende sobre la naturaleza real de las relaciones humanas?
Riesgo 3: Erosión de la confianza y daños a la relación docente-alumno
La confianza es el sustrato invisible de toda educación. El informe Brookings documenta cómo el uso de la IA está deteriorando la confianza en múltiples direcciones: los profesores desconfían de los trabajos de sus alumnos, los alumnos perciben esa desconfianza y se alejan emocionalmente del docente, y los padres no saben qué creer sobre lo que sus hijos aprenden y cómo. Este deterioro de la confianza, señala el informe, es particularmente grave porque actúa precisamente sobre el elemento que hace posibles todos los demás beneficios del aprendizaje.
Riesgo 4: Privacidad, seguridad y exposición a contenido dañino
El informe dedica una sección extensa a los riesgos de seguridad y privacidad. Las políticas de datos de los grandes modelos de lenguaje —ChatGPT, Gemini, otros— son complejas y poco transparentes para los usuarios infantiles. El análisis de la política de privacidad de OpenAI realizado por el equipo Brookings en agosto de 2025 revela prácticas de recopilación y compartición de datos que, en muchos países, no están específicamente adaptadas a la protección de menores.
Además, la IA generativa puede producir, amplificar o facilitar el acceso a contenido sexualizado, violento, desinformador o que promueve conductas de riesgo. Los casos documentados incluyen chatbots que han alentado conductas de autolesión en adolescentes vulnerables (Common Sense Media, 2025). La velocidad con que la IA evoluciona hace que los sistemas de filtrado se queden continuamente obsoletos.
Riesgo 5: La dependencia de la IA y la erosión de la autonomía
El informe Brookings describe lo que llama el AI flywheel effect (efecto de rueda de la IA): cuanto más usa un estudiante la IA para completar tareas, menos desarrolla sus capacidades cognitivas autónomas, lo que a su vez le hace más dependiente de la IA para compensar esas capacidades no desarrolladas. Es un círculo vicioso que, de establecerse en edades tempranas, puede tener consecuencias profundas a largo plazo. Diego López Yse, investigador de la Universidad de San Andrés, lo expresa claramente: «La IA puede ser un copiloto increíble para personalizar el aprendizaje, pero usada sin estrategia se convierte en un atajo superficial que invita a completar tareas sin comprenderlas. El estudiante puede resolver tareas, pero no desarrolla autonomía intelectual ni consolida fundamentos.»
Riesgo 6: La IA puede profundizar las desigualdades educativas
El debate sobre la IA y la equidad tiene dos caras. Sí, la IA puede democratizar el acceso a recursos educativos de calidad. Pero también puede ampliar la brecha entre quienes tienen acceso a herramientas bien diseñadas, supervisión adulta competente y alfabetización digital, y quienes acceden a versiones gratuitas sin guía pedagógica ni protecciones adecuadas. Los datos del informe Brookings muestran que en hogares de ingresos altos casi el 60% de los estudiantes usa IA para tareas escolares, mientras que en hogares de ingresos bajos la cifra cae por debajo del 30%. Pero quizá más relevante que el acceso es la calidad de ese acceso: una IA sin supervisión pedagógica puede ser tan perjudicial como beneficiosa.
La psicología del aprendizaje ante la IA: lo que el cerebro necesita
Para entender por qué el abuso de la IA es tan problemático desde el punto de vista del desarrollo, es útil recordar algunas premisas fundamentales de la psicología del aprendizaje. El cerebro aprende a través de un proceso que los neurocientíficos llaman lucha productiva: cuando nos enfrentamos a un problema que supone un desafío —ni tan fácil que no requiera esfuerzo, ni tan difícil que genere bloqueo—, las conexiones neuronales se fortalecen. Esta es la base neurológica del aprendizaje profundo.
Piaget describió el aprendizaje como un proceso de desequilibrio y reequilibrio cognitivo: encontramos algo que no encaja en nuestra comprensión del mundo, nos esforzamos por integrarlo, y en ese esfuerzo construimos nuevas estructuras cognitivas. Vygotsky añadió la dimensión social: aprendemos mejor en interacción con otros, especialmente con alguien que nos guía desde justo por encima de nuestra zona actual de competencia. La IA, en su estado actual, puede saltarse estos procesos, ofreciendo la respuesta sin el camino, el resultado sin el aprendizaje.
El informe Brookings subraya que los sistemas de IA son fundamentalmente diferentes de la inteligencia humana: aunque sus respuestas parecen inteligentes y contextualmente apropiadas, son el resultado de sofisticado reconocimiento de patrones estadísticos, no de comprensión genuina. Esta distinción tiene implicaciones profundas para la educación: podemos enseñar a los estudiantes a obtener respuestas de la IA, pero eso no es lo mismo que enseñarles a pensar.
¿Qué podemos hacer? El marco Prosperar, Preparar, Proteger
El informe Brookings no concluye con pesimismo, sino con un llamamiento a la acción. Sus doce recomendaciones se articulan en torno a tres pilares que pueden orientar tanto a familias como a docentes, instituciones educativas y gobiernos.
Prosperar: usar la IA para que el aprendizaje sea más rico, no más superficial
El primer pilar parte de una pregunta clave: ¿cuándo añade valor la IA al aprendizaje y cuándo lo sustituye? El informe propone el concepto de «uso dosificado» de la IA: emplearla deliberadamente, solo cuando amplíe y enriquezca el trabajo cognitivo del estudiante, nunca cuando lo reemplace. En la práctica, esto implica diseñar tareas donde la IA sea una herramienta de exploración, no de ejecución. Pedir al estudiante que argumente en contra de una respuesta de la IA, que evalúe su calidad, que la mejore, que la contraste con otras fuentes.
Algunas estrategias concretas incluyen:
- Diseñar actividades donde la IA sea punto de partida, no de llegada: el estudiante evalúa, critica y mejora la respuesta generada.
- Preservar espacios de aprendizaje sin IA para consolidar habilidades fundamentales como la escritura a mano, el cálculo mental o la lectura profunda.
- Usar la IA para que los docentes tengan más tiempo de calidad con sus alumnos, no para reducir el contacto humano.
Preparar: construir alfabetización digital crítica y real
El segundo pilar reconoce que la IA ya está en la vida de los jóvenes y que prohibirla es tan ineficaz como inevitable. Lo que necesitamos es que estudiantes, familias y docentes desarrollen lo que el investigador Lionel Brossi (Universidad de Chile) llama «alfabetización digital real»: no solo saber usar las herramientas, sino comprender sus limitaciones, sesgos y riesgos. Saber distinguir información veraz de alucinaciones de la IA. Entender qué es la privacidad de datos. Reconocer cuándo la IA está manipulando su respuesta emocional.
El informe Brookings señala una brecha preocupante: la mayoría de los padres entrevistados tienen sentimientos ambivalentes sobre la IA pero poca información contrastada para orientar a sus hijos. Solo el 4% de los adolescentes estadounidenses usa herramientas de IA generativa diariamente según la encuesta de Harvard (2024), pero ese uso intensivo coexiste con desconocimiento generalizado sobre sus mecanismos y consecuencias. Las familias están en primera línea sin el equipamiento necesario.
Proteger: salvaguardas para la privacidad, la seguridad y el bienestar
El tercer pilar exige regulación y responsabilidad de las empresas tecnológicas. El informe propone criterios claros de diseño ético de IA para entornos infantiles: contenido verificado, guardianes de seguridad efectivos, transparencia en el uso de datos, diseño que no fomente la dependencia ni explote la vulnerabilidad emocional de los jóvenes.
En el ámbito familiar y escolar, el informe destaca el papel indispensable de los adultos como modeladores del uso tecnológico. No como vigilantes, sino como acompañantes: adultos que entienden la IA, hablan de ella con normalidad y ayudan a los jóvenes a desarrollar un uso consciente y reflexivo. Esto incluye establecer normas claras sobre en qué momentos y para qué tareas es apropiado usar IA, y mantener conversaciones abiertas sobre lo que sienten y experimentan los jóvenes en su relación con estas herramientas.
Qué pueden hacer las familias: guía práctica basada en evidencia
La investigación es clara en un punto: la presencia de un adulto que guíe el uso de la IA marca una diferencia significativa en los resultados para el estudiante. No se trata de prohibir ni de dejar hacer libremente, sino de acompañar con criterio. Estas son algunas orientaciones concretas:
- Conoce las herramientas que usa tu hijo. No necesitas ser experto en tecnología, pero sí saber qué aplicaciones utiliza, para qué y cuánto tiempo. Pregúntale con curiosidad, no con juicio.
- Distingue entre ayuda productiva e improductiva. Usar la IA para entender un concepto que no comprende es diferente a usarla para que escriba la redacción por él. Habla con tu hijo sobre esta distinción.
- Protege el esfuerzo cognitivo como valor. El aburrimiento, la dificultad y el error son parte del aprendizaje. Resiste la tentación de buscar siempre la solución más rápida y transmite este valor a tus hijos.
- Establece límites claros sobre las relaciones con IA. Los «amigos» virtuales y los chatbots emocionales merecen una conversación explícita: son herramientas, no personas. La conexión humana real no tiene sustituto.
- Cuida los espacios sin pantallas. Las comidas, el tiempo de juego libre, las conversaciones sin dispositivos siguen siendo fundamentales para el desarrollo emocional y cognitivo. No lo subestimes.
Conclusión: La IA no es el problema, es el desafío
El filósofo Neil Postman escribió en 1990 que «una nueva tecnología a veces crea más de lo que destruye. A veces destruye más de lo que crea. Pero nunca es algo unilateral.» El informe Brookings de 2026 confirma esta intuición con datos: la IA tiene el potencial de transformar la educación para bien, pero en su trayectoria actual, sus riesgos para el desarrollo cognitivo, emocional y social de los jóvenes superan a sus beneficios.
La buena noticia —y el informe lo subraya con convicción— es que esto no es inevitable. No estamos ante el destino tecnológico, sino ante una elección colectiva. Docentes, familias, empresas tecnológicas, investigadores y gobiernos tienen la capacidad y la responsabilidad de orientar el curso de la IA en educación hacia experiencias que ayuden a todos los niños y jóvenes a florecer como seres humanos completos: cognitivamente capaces, emocionalmente sanos, socialmente competentes.
La pregunta no es si la IA llegará a las aulas y a los hogares. Ya ha llegado. La pregunta es cómo vamos a elegir usarla. Y para responderla bien, necesitamos exactamente lo que la IA no puede darnos: pensamiento crítico, juicio humano, empatía y la voluntad de proteger lo que más importa: la mente y el corazón de nuestros hijos.
Si eres padre, madre, docente o profesional de la educación y quieres profundizar en este tema, puedes consultar el informe completo de Brookings: A New Direction for Students in an AI World: Prosper, Prepare, Protect (Burns et al., 2026), disponible en brookings.edu.
Referencias
Burns, M., Winthrop, R., Luther, N., Venetis, E. y Karim, R. (2026). A New Direction for Students in an AI World: Prosper, Prepare, Protect. Brookings Institution, Center for Universal Education.
Botti-Lodovico, J. (2025). School of Leadership Afghanistan: AI and curriculum digitalization. Informe técnico.
Bronfenbrenner, U. (1994). Ecological models of human development. International Encyclopedia of Education, 3, 37-43.
Common Sense Media. (2025a). AI and teens: Emotional wellbeing report. Common Sense Media.
Immordino-Yang, M. H. y Damasio, A. (2007). We feel, therefore we learn: The relevance of affective and social neuroscience to education. Mind, Brain, and Education, 1(1), 3-10. https://doi.org/10.1111/j.1751-228X.2007.00004.x
Izquierdo, A. (2024). Impacto del ChatGPT en el desarrollo cognitivo adolescente. Revisión sistemática. Revista de Psicodidáctica, 29(1), 45-58.
Jain, A. y Stemper, M. (2024). Mobile broadband expansion and student outcomes: Evidence from 2.5 million 15-year-olds across 82 countries. NBER Working Paper.
Lima, C. B. y Serrano, A. (2024). Inteligencia Artificial Generativa y ChatGPT: Una investigación sobre el impacto en el aprendizaje estudiantil. Revista Iberoamericana de Educación, 85(2), 112-130.
Ma, W., Adesope, O., Nesbit, J. y Liu, Q. (2014). Intelligent tutoring systems and learning outcomes: A meta-analysis. Journal of Educational Psychology, 106(4), 901-918. https://doi.org/10.1037/a0037123
Masur, C. (2025). Is AI taking over your kid’s brain? Psychology Today, 12 de junio de 2025.
Namvarpour, M., Brofsky, B., Medina, J., Akter, M. y Razi, A. (2025). Romance, relief, and regret: Teen narratives of chatbot overreliance. arXiv preprint arXiv:2507.15783.
National Academies of Sciences, Engineering, and Medicine. (2018). How people learn II: Learners, contexts, and cultures. The National Academies Press. https://doi.org/10.17226/24783
OECD. (2015). Students, computers and learning: Making the connection. PISA, OECD Publishing. https://doi.org/10.1787/9789264239555-en
Roy, R., et al. (2024). AI tools for teacher productivity: A randomised controlled trial. Education Endowment Foundation, UK.
UNESCO. (2023). Technology in education: A tool on whose terms? Global Education Monitoring Report. UNESCO Publishing.
UNESCO. (2024). Education for all: 251 million out-of-school children. UNESCO Institute for Statistics.








Deja un comentario