La IA se normalizó en aulas y campus ¿Qué cambió, qué se rompió y cómo rediseñar la enseñanza ante el uso masivo de chatbots?
Al comenzar un nuevo ciclo escolar, la IA generativa ya no es una curiosidad: es el telón de fondo de la vida académica. Los ensayos se escriben con ayuda de chatbots, los ejercicios se resuelven con modelos y los profesores diseñan currículos apoyados en asistentes algorítmicos.
Ian Bogost y Lila Shroff, editores de The Atlantic, ambos coinciden en que la escuela y la universidad entraron en una fase de normalización acelerada.
Para Shroff, la evidencia en preparatoria es más tajante: “básicamente parece que todos lo usan constantemente para todo”. La generación que hoy cursa el último año de secundaria (bachillerato para nosotros) y universidad transcurrió sus cuatro años con IA a mano.
“Cualquier estigma o confusión que pudiera haber existido en años anteriores está desapareciendo y se está volviendo algo común y corriente”, observa Shroff. Esa “normalización” —subraya Bogost— no ha sido plenamente asimilada por los docentes, quienes también la usan “con cuidado o de forma casual” para cartas, artículos o planeación, pero sin integrarla como hábito profesional estable.
Los datos externos confirman la adopción estudiantil. En Estados Unidos, la proporción de adolescentes que usaron ChatGPT para tareas se duplicó: pasó de 13% en 2023 a 26% en 2024, según Pew Research Center.
La adopción es mayor entre juniors y seniors y muestra brechas por nivel socioeconómico. Al mismo tiempo, muchos distritos aún no aclaran qué constituye uso permitido o trampa; de cara al arranque de 2025, directivos admiten que la tecnología evoluciona demasiado rápido para políticas rígidas, lo que deja a familias y alumnos ante reglas ambiguas.
Axios En el profesorado, el péndulo oscila entre el pragmatismo y la incertidumbre. Encuestas recientes apuntan a un uso creciente de IA para planificar clases y tareas administrativas —con ahorros de tiempo reportados de hasta seis horas semanales—, aunque persisten dudas sobre su efecto en el aprendizaje y la equidad entre escuelas con y sin recursos.
No obstante, la formación docente sigue rezagada: casi 6 de cada 10 educadores dicen no haber recibido capacitación formal dos años después del lanzamiento de ChatGPT. Otros sondeos, como RAND, sitúan el uso docente alrededor de un cuarto en 2023–24, con gran variación por asignatura.
La conversación pública, sin embargo, no se agota en la adopción. Bogost propone una lectura de fondo: la IA ha acelerado el cobro de una “deuda pedagógica” arrastrada por años.
En secundaria, Shroff detecta dos respuestas: una transición hacia currículos “más prácticos y basados en habilidades” —con el auge de ofertas como negocios o ciberseguridad— y un contraargumento que advierte que la dependencia excesiva de herramientas erosiona el pensamiento crítico.
Esa tensión atraviesa la agenda internacional. La UNESCO recomienda marcos de uso “centrados en la persona”, con transparencia, resguardo de datos y formación docente antes de escalar herramientas, y advierte que la IA no debe sustituir el juicio pedagógico ni los objetivos de aprendizaje.
La entrevista también captura un giro cultural. “Ahora movemos símbolos, y eso es todo”, lamenta Bogost al comparar el abandono de talleres y oficios con la ubicuidad de las tareas mediadas por pantalla.
Propone más experiencias táctiles, de servicio comunitario o aplicación de estadística a problemas reales, para reducir la “urgencia de terminar todo lo más rápido posible” que hace tan tentador al atajo algorítmico.
Shroff coincide: los estudiantes “están usando la IA exactamente como fue diseñada… simplemente se están volviendo más productivos”. Y Bogost devuelve el espejo: “A tu jefe no le importará cómo hagas las cosas, solo que se hagan de la manera más eficaz posible”, le dijeron alumnos que ven los incentivos laborales alineados con los atajos.
El dilema no se limita a la honestidad académica. La evidencia preliminar sobre aprendizaje es ambigua.
En educación superior, instructores y alumnos anticipan más trampas con IA, y proliferan ajustes como exámenes orales, escritura en clase o seguimiento de ediciones en documentos para reducir el outsourcing cognitivo.
Ed Turnitin, por su parte, reportó que alrededor de 1 de cada 10 trabajos presentaba al menos 20% de contenido generado por IA, un umbral que —advierten— no siempre implica fraude y puede reflejar usos legítimos.
La línea entre apoyo y sustitución sigue difusa. Muchos sistemas K–12 informan que aceptan plataformas adaptativas o asistentes de planeación, pero restringen el uso de chatbots generativos para redacciones o resolución de problemas.
Aun así, la “zona gris” persiste: cuando un alumno usa la IA para estructurar un argumento o para pulir estilo y gramática, ¿se pierde práctica de pensamiento crítico y escritura, o se gana tiempo para discutir ideas en clase? La respuesta, por ahora, descansa en el diseño de tareas y en la retroalimentación.