En 1984, un investigador llamado Benjamin Bloom descubrió algo que cambió la forma de pensar la educación: los estudiantes que tienen un tutor personal aprenden tanto mejor que los que están en un salón de clases tradicional que la diferencia es casi imposible de ignorar. Lo llamó el «problema 2 sigma» —y el problema era justamente ese: la tutoría individual funciona extraordinariamente bien, pero ofrecérsela a todos los estudiantes es, en la práctica, imposible.
Cuarenta años después, la industria tecnológica encontró su argumento perfecto: la inteligencia artificial puede ser ese tutor para todos. Disponible a cualquier hora. Adaptada al ritmo de cada estudiante. Sin costo extra por alumno.
La promesa suena tan bien que la presión por adoptarla podría traducirse en decisiones apresuradas que terminen afectando lo que más importa: el aprendizaje real.
La doble cara de la IA
Plataformas como Khanmigo, Synthesis Tutor o Carnegie Learning ya están en los radares de muchas universidades —y llegan a las IES con demos de venta impresionantes. Investigadores de la Universidad de Hong Kong publicaron en abril de 2026 un análisis en Prospects, una revista de la Unesco, sobre exactamente ese momento: el de la adopción entusiasta. Su conclusión es sencilla e incómoda: en general, las universidades abrazan el potencial y pasan de largo los riesgos.
¿Cuáles riesgos? Tres que valen la pena nombrar.
El primero es el sesgo. Estos sistemas aprenden de datos —y los datos con los que fueron entrenados tienen un perfil. Si ese perfil no es el de tus estudiantes, el sistema va a funcionar mejor para unos que para otros, sin que nadie lo haya decidido así.
El segundo es el idioma y el contexto. La mayoría de estas herramientas nacieron en inglés y pensando en estudiantes del norte global. Adaptarlas a la realidad de un estudiante en Monterrey, en Oaxaca o en Ciudad Juárez no es cuestión de traducir la interfaz.
El tercero es el que menos se discute: los datos. Cada vez que un estudiante interactúa con una de estas plataformas, genera información. ¿Quién la tiene? ¿Qué hace con ella? ¿Puede la empresa usarla para mejorar su producto —Un producto que no le pertenece a la universidad, sino a ellos?
No son preguntas paranoicas. Son preguntas de gobernanza básica. Y en México, es importante que las IES las consideren.
Un caso de éxito
La Universidad de Lingnan, en Hong Kong, lleva casi dos años usando IA de forma masiva— todos sus estudiantes y docentes tienen acceso gratuito a ChatGPT y otras herramientas desde agosto de 2023. Pero construyeron algo antes de abrir ese acceso: un modelo claro de cómo funciona la IA dentro del proceso de aprendizaje.
El elemento central es sencillo de entender: cuando la IA genera retroalimentación sobre el trabajo de un estudiante, esa retroalimentación no llega directa al alumno. Pasa primero por el docente. El docente la revisa, la ajusta, la hace suya. Solo entonces llega al estudiante, quien a su vez tiene que reflexionar y responder.
Este no es un detalle simple. La diferencia entre un sistema así y uno que simplemente manda retroalimentación automática es la diferencia entre una herramienta pedagógica y una cinta transportadora. En un caso, el docente sigue siendo quien decide qué es aprender bien. En el otro, esa decisión la tomó el algoritmo sin previa supervisión del departamento académico de la IES en cuestión.
Una señal que conviene no ignorar
Mientras las universidades debaten si adoptar tutores de IA, el mercado laboral ya está enviando una señal clara. El Stanford Digital Economy Lab publicó en agosto de 2025 un análisis sobre el impacto real de la IA en el empleo. Desde que llegó ChatGPT, el empleo en puestos de nivel inicial de desarrollo de software cayó casi un veinte por ciento. Los puestos de atención al cliente muestran una caída similar.
Los investigadores los llaman «las canarias en la mina» —los primeros en sentir el cambio antes de que sea evidente para todos.
¿Qué le dice eso a una universidad? Que la pregunta no es solo si adoptar IA en el aula. Es si lo que se está enseñando —con o sin IA— está desarrollando las capacidades que los algoritmos no pueden reemplazar: pensar con criterio propio, resolver problemas sin instrucciones claras, comunicarse con otras personas de formas que importan.
Si la IA en el aula reemplaza ese proceso en lugar de fortalecerlo, el tutor que nunca duerme puede terminar siendo un problema más grande que el que vino a resolver.
Consideraciones importantes para las IES mexicanas
A nivel global, el porcentaje de universidades con políticas formales sobre el uso de IA pasó del veintitrés al treinta y nueve por ciento en un solo año, según el estudio EDUCAUSE 2025. Como se ha venido reportando en esta serie, de acuerdo con datos de la Anuies, México sigue por debajo de ese promedio: menos del diez por ciento de sus instituciones de educación superior tiene un marco formal.
Eso significa que la mayoría de las universidades mexicanas que hoy están evaluando herramientas de tutoría con IA lo están haciendo sin saber qué pasa con los datos de sus estudiantes, sin criterios para elegir proveedores y sin un modelo claro de qué papel juega el docente cuando la máquina ya hizo su parte.
La tecnología no es el problema. El problema es adoptarla sin haber decidido para qué sirve, quién la supervisa y qué pasa cuando no funciona como se prometió.
Esas decisiones no las toma la plataforma. Las toma la institución. O no las toma —y en ese caso, alguien más— o algo, ya las está tomando por ella.
Referencias
• Bloom, B.S. (1984). The 2 sigma problem: The search for methods of group instruction as effective as one-to-one tutoring. Educational Researcher, 13(6), 4-16.
• Heeg, D.M. & Avraamidou, L. (2026, 8 de abril). Demystifying artificial intelligence in education: A critical review. PROSPECTS / Springer (open access).
• Qin, S.J. et al. (2026). AI for education: The digital transformation of a liberal arts institution — implementation at Lingnan University. Computers and Education: Artificial Intelligence. ScienceDirect.
• E., Chandar, B. & Chen, R. (2025). Canaries in the coal mine? Six facts about the recent employment effects of Artificial Intelligence. Stanford Digital Economy Lab.
• EDducause (2025). AI Landscape Study 2025. Citado en: EdTech Magazine, febrero 2026.
• Anuies (2024). Estimaciones sobre marcos formales de gobernanza digital en instituciones de educación superior mexicanas.

Vanessa Medina Armienta
Especialista en regulación, educación superior e inteligencia artificial, con más de 25 años de experiencia en el sector público federal mexicano — SHCP, CNBV, SRE y Cámara de Diputados, entre otras instituciones. Es Directora de Campus Consulting, donde acompaña a universidades mexicanas en el diseño e implementación de políticas institucionales de IA responsable. Licenciada en Relaciones Internacionales por la UNAM, Maestra en Relaciones Internacionales por la Universidad de Nottingham, Reino Unido (Beca Chevening) y Maestra en Consultoría Organizacional y de Negocios por ICE México.
Columna Campus: Un-Common Sense
- Vanessa Medina Armienta
- Vanessa Medina Armienta