Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

Reflexiones sobre la IA en el ámbito de la evaluación educativa

Esta nueva tecnología no es una panacea, sino una potente herramienta, para campos como la evaluación eductaiva, que debe ir acompañada por inteligencia humana

🎧 Escucha este artículo en audio. Este contenido está disponible solo para nuestros miembros. 🌟 👉 Únete aquí.

Son los programadores quienes deben garantizar la objetividad de los algoritmos y la veracidad de la información con que se alimentan.

La inteligencia artificial (IA) es una herramienta muy poderosa. En diferentes ámbitos de la actividad humana está teniendo múltiples implicaciones y, dependiendo del uso, pueden ser positivas o negativas. La velocidad con que se procesa la información y las posibilidades que ofrecen los algoritmos específicos han permitido el desarrollo de aplicaciones que antes eran impensables. Simultáneamente, su utilización ha detonado interesantes debates, particularmente en torno a la protección de derechos. Los dilemas que están en juego tienen que ver con la justicia y la ética. El problema es que hoy su desarrollo avanza más rápido que su regulación. De hecho, la regulación es incipiente y parcelada.

El primer marco legal que se aprobó a nivel mundial fue el AI Act (2024) en la Unión Europea. Su enfoque es básicamente preventivo. En Estados Unidos, en cambio, no existe una regulación, solo orientaciones y recomendaciones para su uso ético, los proyectos de ley existentes apuntan a la promoción de la autorregulación. En México, si bien se han dado debates y se proponen principios rectores, lo cierto es que la regulación legal continúa siendo una asignatura pendiente. Por ello, las reflexiones siguen siendo relevantes.

En el ámbito de la evaluación educativa –el tema que ocupa al Ceneval–, muchas de las aplicaciones de IA son específicas de dominio, es decir, algoritmos que se enfocan en una tarea puntual; no obstante, son sumamente útiles. Al igual que en otros sectores, arrojan beneficios y riesgos que sopesar para lograr un equilibrio entre la innovación y la ética.

Un ámbito de aplicación es el desarrollo de pruebas adaptativas computarizadas, en las que, a medida que la persona va contestando, el algoritmo estima su capacidad en función de sus respuestas y selecciona los siguientes reactivos en tiempo real. De este modo, literalmente, la prueba se va adaptando al nivel de conocimientos de quien contesta y se requieren menos respuestas de su parte para determinar su nivel, lo que hace que las pruebas sean menos tediosas. Para ello, además de un buen algoritmo, se necesita una batería de reactivos muy grande y bien calibrada.

Otro aporte de la IA a la evaluación educativa tiene que ver con el procesamiento de grandes volúmenes de datos de las aplicaciones en muy poco tiempo. Ello permite la entrega de resultados inmediatos y la pronta retroalimentación: detectar estudiantes con problemas de aprendizaje, áreas con insuficiente desempeño, riesgo de abandono, o para determinar necesidades de atención especial, entre las más destacadas. Hay casos en que la IA puede proporcionar soluciones inmediatas, como la adaptación de las pruebas para la atención de alguna discapacidad.

Aplicaciones adicionales de la IA en evaluación educativa permiten apoyar la elaboración de reactivos o implementar modelos de lenguaje grande (Large Language Model) para la calificación de reactivos de respuestas abiertas.

El primer ejemplo acredita que la IA por sí sola no es una panacea, sino que debe ir acompañada de la “inteligencia humana”. Hacer que una prueba adaptativa funcione depende no solo del algoritmo, sino, fundamentalmente, de una solvencia psicométrica robusta para diseñar pruebas, desarrollar ítems y calibrar. Generar “los casos” que alimentan el algoritmo y verificar que opere adecuadamente. Los especialistas en informática programan dichos algoritmos, pero deben basarse en lo que establecen los psicómetras para diseñar una solución adecuada. En el segundo caso, la IA genera un ahorro de tiempo sustancial. Para ello, se debe fijar previamente la información requerida, los vínculos, los resultados, y luego desarrollar los algoritmos. Lo destacable es que una vez que el sistema ha sido “educado” procesa a una velocidad y con una precisión nunca antes vista.

El debate indispensable debe girar en torno a la ética de quienes diseñan y construyen los sistemas: no solo es necesario que se haga con solvencia técnica, sino con integridad y ética, con responsabilidad sobre las implicaciones, para las personas, de los resultados de las evaluaciones que utilizan IA. Un riesgo siempre presente es el sesgo algorítmico, es decir, que los motores de búsqueda respondan a ciertos patrones determinados, produciendo resultados que discriminan de algún modo.

Los usuarios no saben cómo se programan los algoritmos o cómo se entrena la IA. Quienes lo hacen deben garantizar que su diseño sea confiable y que la información que la alimenta sea objetiva, veraz y libre de sesgos. Estos principios guían cada uno de nuestros procesos. Independientemente de las herramientas que se utilicen —incluida la inteligencia artificial—, el Centro asegura que los resultados de sus evaluaciones sean válidos, confiables y equitativos. El uso de IA permite ofrecer soluciones más ágiles y eficaces, pero el compromiso con la excelencia y la ética no se delega ni se automatiza: se fortalece.

En congruencia con este compromiso, el Ceneval también desarolló y puso en marcha su Navegador Seguro, una herramienta tecnológica diseñada para preservar la integridad de las evaluaciones. Esta solución, autentica a la persona sustentante mediante su folio y su contraseña, valida la seguridad del entorno en el que se presenta el examen, da seguimiento en tiempo real y envía alertas en caso de detectar conductas extrañas que pudieran ser un indicio de un comportamiento antiético.

Además, tiene una capacidad robusta que permite la aplicación simultánea y con un máximo de seguridad a más de 80 000 sustentantes que inicien al mismo tiempo y es posible irla escalando. Se basa en un procedimiento sencillo y confiable, y está en permanente actualización para mantenerse a la vanguardia en lo que se refiere a la tecnología y la seguridad. Su efectividad permite en la actualidad gestionar más de medio millón de pruebas al año.

Esta herramienta suma a las acciones del Ceneval para garantizar que los resultados sigan siendo plenamente confiables y representativos del desempeño de cada sustentante.

Ceneval
+ posts

📬 ¿Te gustó este artículo?

Recibe contenidos como este cada semana en tu inbox.

Únete a +450 líderes de educación superior que ya leen Campus.

© 2025 Suplemento Campus. Todos los derechos reservados. Los artículos de opinión, análisis, entrevistas y reportajes publicados en este sitio son originales y exclusivos de Suplemento Campus. Queda estrictamente prohibida su reproducción total o parcial en cualquier otro medio, impreso o digital, sin autorización previa por escrito. El uso no autorizado del contenido podrá dar lugar a acciones legales conforme a la legislación vigente sobre derechos de autor.

86% de estudiantes universitarios ya usa IA.

Pero menos del 10% de las universidades tiene lineamientos formales.¿El resultado? Rectorías navegando a ciegas mientras la brecha crece cada semestre.

En Campus Consulting creamos la una Guía práctica para Universidades Mexicanas 2025 sobre IA en educación superior.

Inteligencia Artificial Responsable en tu Universidad

Ayudamos a universidades mexicanas a implementar IA de manera responsable, evitando crisis de integridad académica y aprovechando ventajas competitivas.

Campus Consulting es el brazo de consultoría del Suplemento Campus.

¿Tu institución ya tiene una política de Inteligencia Artificial responsable?

Campus Consulting te apoya con:

✅ Diagnóstico institucional

✅ Desarrollo de políticas IA

✅ Capacitación docente

Implementación completa

Descubre más desde CAMPUS MILENIO

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo