La inteligencia artificial (IA) es una herramienta muy poderosa. En diferentes ámbitos de la actividad humana está teniendo múltiples implicaciones y, dependiendo del uso, pueden ser positivas o negativas. La velocidad con que se procesa la información y las posibilidades que ofrecen los algoritmos específicos han permitido el desarrollo de aplicaciones que antes eran impensables. Simultáneamente, su utilización ha detonado interesantes debates, particularmente en torno a la protección de derechos. Los dilemas que están en juego tienen que ver con la justicia y la ética. El problema es que hoy su desarrollo avanza más rápido que su regulación. De hecho, la regulación es incipiente y parcelada.
El primer marco legal que se aprobó a nivel mundial fue el AI Act (2024) en la Unión Europea. Su enfoque es básicamente preventivo. En Estados Unidos, en cambio, no existe una regulación, solo orientaciones y recomendaciones para su uso ético, los proyectos de ley existentes apuntan a la promoción de la autorregulación. En México, si bien se han dado debates y se proponen principios rectores, lo cierto es que la regulación legal continúa siendo una asignatura pendiente. Por ello, las reflexiones siguen siendo relevantes.
En el ámbito de la evaluación educativa –el tema que ocupa al Ceneval–, muchas de las aplicaciones de IA son específicas de dominio, es decir, algoritmos que se enfocan en una tarea puntual; no obstante, son sumamente útiles. Al igual que en otros sectores, arrojan beneficios y riesgos que sopesar para lograr un equilibrio entre la innovación y la ética.
Un ámbito de aplicación es el desarrollo de pruebas adaptativas computarizadas, en las que, a medida que la persona va contestando, el algoritmo estima su capacidad en función de sus respuestas y selecciona los siguientes reactivos en tiempo real. De este modo, literalmente, la prueba se va adaptando al nivel de conocimientos de quien contesta y se requieren menos respuestas de su parte para determinar su nivel, lo que hace que las pruebas sean menos tediosas. Para ello, además de un buen algoritmo, se necesita una batería de reactivos muy grande y bien calibrada.
Otro aporte de la IA a la evaluación educativa tiene que ver con el procesamiento de grandes volúmenes de datos de las aplicaciones en muy poco tiempo. Ello permite la entrega de resultados inmediatos y la pronta retroalimentación: detectar estudiantes con problemas de aprendizaje, áreas con insuficiente desempeño, riesgo de abandono, o para determinar necesidades de atención especial, entre las más destacadas. Hay casos en que la IA puede proporcionar soluciones inmediatas, como la adaptación de las pruebas para la atención de alguna discapacidad.
Aplicaciones adicionales de la IA en evaluación educativa permiten apoyar la elaboración de reactivos o implementar modelos de lenguaje grande (Large Language Model) para la calificación de reactivos de respuestas abiertas.
El primer ejemplo acredita que la IA por sí sola no es una panacea, sino que debe ir acompañada de la “inteligencia humana”. Hacer que una prueba adaptativa funcione depende no solo del algoritmo, sino, fundamentalmente, de una solvencia psicométrica robusta para diseñar pruebas, desarrollar ítems y calibrar. Generar “los casos” que alimentan el algoritmo y verificar que opere adecuadamente. Los especialistas en informática programan dichos algoritmos, pero deben basarse en lo que establecen los psicómetras para diseñar una solución adecuada. En el segundo caso, la IA genera un ahorro de tiempo sustancial. Para ello, se debe fijar previamente la información requerida, los vínculos, los resultados, y luego desarrollar los algoritmos. Lo destacable es que una vez que el sistema ha sido “educado” procesa a una velocidad y con una precisión nunca antes vista.
El debate indispensable debe girar en torno a la ética de quienes diseñan y construyen los sistemas: no solo es necesario que se haga con solvencia técnica, sino con integridad y ética, con responsabilidad sobre las implicaciones, para las personas, de los resultados de las evaluaciones que utilizan IA. Un riesgo siempre presente es el sesgo algorítmico, es decir, que los motores de búsqueda respondan a ciertos patrones determinados, produciendo resultados que discriminan de algún modo.
Los usuarios no saben cómo se programan los algoritmos o cómo se entrena la IA. Quienes lo hacen deben garantizar que su diseño sea confiable y que la información que la alimenta sea objetiva, veraz y libre de sesgos. Estos principios guían cada uno de nuestros procesos. Independientemente de las herramientas que se utilicen —incluida la inteligencia artificial—, el Centro asegura que los resultados de sus evaluaciones sean válidos, confiables y equitativos. El uso de IA permite ofrecer soluciones más ágiles y eficaces, pero el compromiso con la excelencia y la ética no se delega ni se automatiza: se fortalece.
En congruencia con este compromiso, el Ceneval también desarolló y puso en marcha su Navegador Seguro, una herramienta tecnológica diseñada para preservar la integridad de las evaluaciones. Esta solución, autentica a la persona sustentante mediante su folio y su contraseña, valida la seguridad del entorno en el que se presenta el examen, da seguimiento en tiempo real y envía alertas en caso de detectar conductas extrañas que pudieran ser un indicio de un comportamiento antiético.
Además, tiene una capacidad robusta que permite la aplicación simultánea y con un máximo de seguridad a más de 80 000 sustentantes que inicien al mismo tiempo y es posible irla escalando. Se basa en un procedimiento sencillo y confiable, y está en permanente actualización para mantenerse a la vanguardia en lo que se refiere a la tecnología y la seguridad. Su efectividad permite en la actualidad gestionar más de medio millón de pruebas al año.
Esta herramienta suma a las acciones del Ceneval para garantizar que los resultados sigan siendo plenamente confiables y representativos del desempeño de cada sustentante.
