🎓 25 años Educación superior en México · Suplemento Campus · Grupo Milenio
Convocatoria abierta ICGU 2026 · Registra tu institución antes del 30 de mayo · Participación gratuita
Calculando...
Participar →
Suplemento
CAMPUS M
25 años · educación superior en México
#HoyEnCampus
Cargando últimas noticias…

Inteligencia artificial, regulación y universidades: lo que viene, cómo afecta y qué hacer

La iniciativa de Ley General para Regular la Inteligencia Artificial en México fue pausada tras el debate en redes, pero viene. Ocho de cada diez estudiantes universitarios ya usan IA generativa y menos del 10% de las IES tiene una política formal. Lo que pocas instituciones saben: bajo esta ley, las universidades no son espectadoras sino operadoras de sistemas de alto riesgo sujetos a registro, auditoría y régimen sancionatorio.
Las casas de estudio necesitan aplicar autoridad real para establecer política institucional sobre el uso de IA.

Esta semana, la iniciativa que podría convertirse en la primera ley de inteligencia artificial de México encendió el debate en redes sociales con tal intensidad que el Senado canceló la sesión programada para su presentación formal. El aviso oficial de suspensión cita, textualmente, que la decisión fue "derivada de la conversación pública generada recientemente en espacios digitales, particularmente en la red social X". Se busca, dice el oficio, "fortalecer, analizar y robustecer la iniciativa antes de su presentación".

La iniciativa de Ley General para Regular y Fomentar el Uso de la Inteligencia Artificial, coordinada por el senador priista Rolando Zapata, Presidente de la Comisión de IA en el Senado, está respaldada por senadores de Morena, PAN, PVEM, PRI, PT y Movimiento Ciudadano. Es el resultado de 16 meses de trabajo y clasifica infracciones en tres niveles —leves, graves y gravísimas— al tiempo que crea nuevas instituciones nacionales: la Autoridad Nacional de Inteligencia Artificial, la Estrategia Nacional de IA, el Fondo Nacional para el Desarrollo de la IA y el Sistema Nacional de Certificación de la IA. Además, adopta un modelo de regulación escalonada: los sistemas de alto riesgo estarán sujetos a registro obligatorio, auditorías y certificación; los de uso personal o limitado solo deberán cumplir principios básicos.

En ese debate, sin embargo, no entró la perspectiva de uno de los sectores que quizás más va a sentir esta ley en su operación cotidiana. Esta entrega busca contribuir a ese análisis: qué dice la ley, qué implica para universidades, académicos y estudiantes, y qué conviene hacer desde ahora.

134
artículos + glosario tiene la iniciativa que se discute en el Senado de la República
8 de cada 10
estudiantes mexicanos de educación superior usan IA para elaborar tareas escritas, según la encuesta nacional de la SEP (abril 2026, 1.5M encuestados)
<10%
de las IES mexicanas tiene hoy una política formal de gobernanza de IA —justo lo que la ley va a requerir
De qué trata la ley: los puntos esenciales

La iniciativa parte de una premisa que pocos cuestionan: la inteligencia artificial no es neutral. Puede amplificar sesgos, vulnerar privacidad y afectar derechos fundamentales si se usa sin ningún tipo de control. La ley propone entonces un modelo de regulación escalonado por nivel de riesgo: no todos los sistemas de IA recibirían el mismo tratamiento, sino uno proporcional a su impacto potencial.

Los cuatro niveles de riesgo que la ley establece:

Riesgo mínimo IA de uso cotidiano sin impacto significativo en derechos. Aplican sólo principios básicos de transparencia. Ejemplos: filtros de spam, asistentes de calendario, correctores de texto.
Riesgo limitado Sistemas que interactúan con personas y deben informar que son IA. Chatbots de atención, asistentes de voz, generadores de contenido.
Alto riesgo Sistemas que toman o apoyan decisiones con impacto real en derechos, seguridad o acceso a servicios. Registro obligatorio, evaluación previa, auditoría y certificación. Aquí están los que más afectan a las IES.
Prohibidos Sistemas que ningún actor puede usar. Vigilancia masiva sin orden judicial, manipulación cognitiva o política, scoring social coercitivo, sistemas autónomos letales sin supervisión humana.

Para hacer cumplir este esquema, la ley crea una Autoridad Nacional de Inteligencia Artificial con amplias facultades: emitir lineamientos técnicos vinculantes, clasificar sistemas, ordenar suspensiones preventivas, imponer sanciones (multas, clausuras, inhabilitaciones) y remitir casos a la Fiscalía General de la República cuando los hechos constituyan delitos. Las infracciones se clasifican en leves, graves y gravísimas —una categoría que amplía el alcance del derecho administrativo sancionador en materia tecnológica— que pueden incluir penas de cárcel.

La ley también introduce el concepto de neuroderechos: privacidad mental, integridad cognitiva y autonomía de la voluntad. Son derechos orientados a proteger a las personas frente a tecnologías que pueden interferir en sus procesos mentales o emocionales. Su inclusión es significativa y su interpretación práctica, uno de los debates jurídicos más relevantes que traerá la ley.

Las universidades no son espectadoras: son sujetos de regulación

El primer punto que conviene entender con claridad es éste: las instituciones de educación superior no son observadoras de esta ley. Son, técnicamente, operadoras de sistemas de inteligencia artificial, y varios de los que ya usan —o están adoptando— caen dentro de la categoría de alto riesgo.

Aplicando esa definición a la operación cotidiana de las IES, estos son los casos que más probablemente quedarían sujetos a las obligaciones de alto riesgo:

Detección de plagio con IA Sistemas como Turnitin ya incorporan modelos de lenguaje para identificar contenido generado por IA y toman decisiones que afectan directamente los derechos académicos de los estudiantes. Aplicando la definición de la ley, probablemente calificarían como alto riesgo: implicaría registro y certificación obligatorios.
Evaluación automatizada Plataformas que califican ensayos, detectan patrones de deshonestidad o clasifican perfiles académicos. Si afectan derechos, requieren evaluación de impacto previa a su implementación.
Admisiones con IA Cualquier sistema que preseleccione candidatos, asigne becas o determine continuidad académica cae en la categoría de alto riesgo por definición: incide directamente en el acceso a la educación.
Tutores inteligentes Plataformas adaptativas que ajustan contenidos y evaluaciones según el perfil del estudiante. La interpretación amplia de los neuroderechos podría alcanzar sistemas diseñados para influir en procesos de aprendizaje.
Investigación con IA Proyectos académicos que usen datos sensibles, modelos experimentales o generación de contenido podrían requerir evaluaciones de riesgo previas, controles éticos formales y documentación ante la Autoridad Nacional.
La escala del fenómeno: los números mexicanos

La semana pasada, la Secretaría de Educación Pública presentó por primera vez evidencia nacional sobre el uso de IA en educación superior. Los números son contundentes: ocho de cada diez estudiantes usan inteligencia artificial generativa para elaborar tareas escritas —ensayos, tesis, resúmenes—. Más del 60% la usa al menos una vez por semana. La encuesta cubrió 2 mil 900 instituciones, un millón 529 mil estudiantes y 163 mil docentes.

El 91% de los docentes encuestados reconoció que necesita capacitarse en el uso de la IA. El 80% de los estudiantes considera que la IA transformará su área de estudio. Y un dato que no debería pasar inadvertido: casi 92 mil estudiantes —el 9% de los encuestados— reportaron usar la IA como herramienta de apoyo emocional, para manejar ansiedad, estrés o depresión.

Estos números describen la realidad de las aulas mexicanas hoy, antes de que la ley entre en vigor. Son también la mejor descripción posible de la escala del problema de gobernanza: el uso ya es masivo, estructural e irreversible. La regulación llega después.
Qué implica esto para académicos y estudiantes
Para los académicos

El trabajo de investigación con IA enfrenta un nuevo entorno de obligaciones. Usar datasets sensibles, desarrollar modelos experimentales, generar contenido sintético o aplicar IA en estudios con sujetos humanos podría requerir, bajo la nueva ley, una evaluación de impacto previa, controles de seguridad documentados y supervisión continua. Los tiempos académicos y los tiempos regulatorios no siempre van a coincidir. Eso es una fricción real.

Además, conceptos como "manipulación subliminal", "afectación a derechos" o "no discriminación algorítmica" tienen redacciones amplias cuya interpretación queda, en primera instancia, en manos de la Autoridad Nacional. Para investigadores que trabajan en algoritmos de recomendación, sistemas de tutoría inteligente o modelos de predicción académica, esa ambigüedad es una fuente de incertidumbre jurídica que no puede ignorarse.

Para los estudiantes

La ley les otorga derechos explícitos: el derecho a saber cuándo una decisión que les afecta fue tomada o apoyada por un sistema de IA; el derecho a oponerse a tratamientos automatizados que incidan significativamente en sus derechos o libertades; el derecho a que los datos con los que se entrenan los sistemas que los evalúan sean gestionados con transparencia y con su consentimiento informado. Estas son garantías reales que, una vez que la ley entre en vigor, las IES deberán poder cumplir.

La tensión con la autonomía universitaria

Hay un ángulo adicional que el sector universitario debería estar analizando con atención. Si la Autoridad Nacional tiene facultades para emitir lineamientos vinculantes sobre el uso de IA —como sugiere el esquema de la iniciativa— su aplicación a universidades públicas autónomas introduciría una tensión con el principio de autonomía universitaria que merece un debate jurídico específico.

La autonomía no es un privilegio administrativo. Es el reconocimiento constitucional de que las universidades cumplen mejor su misión cuando pueden gobernarse a sí mismas. Si la Autoridad Nacional pudiera determinar qué sistemas de IA puede o no puede usar una universidad en sus procesos de admisión, evaluación o investigación, estamos ante una interferencia de alcance que el texto final de la ley tendrá que resolver con precisión.

El sector educativo sí estuvo presente en el proceso que dio origen a esta ley. En marzo de 2025, el tercer conversatorio de la Comisión fue dedicado específicamente a "IA, la nueva Educación y el Futuro del Trabajo", con participación de académicos del IPN, el Tec de Monterrey y la UACM, entre otros. En noviembre de 2025, la Comisión instaló una mesa específica con rectores universitarios de las seis regiones de la ANUIES —UAM, UABC, UASLP, UAN y otras— donde el senador Zapata les anunció que la Ley General viene, y que después vendrá un capítulo específico en la Ley General de Educación.

Pero esa conversación tuvo un enfoque preciso: formación de talento, brecha digital, actualización curricular, el riesgo de que las universidades pierdan relevancia. Lo que no se discutió —y que esta ley ahora impone— es qué ocurre cuando una universidad opera como proveedora de sistemas de inteligencia artificial de alto riesgo: evaluaciones de impacto previas, registro ante la Autoridad Nacional, obligaciones de compliance, régimen sancionatorio. Las IES fueron convocadas como actores de política educativa. No fueron consultadas sobre sus obligaciones regulatorias como operadoras de IA.

Lo que conviene hacer desde ahora

La ley tiene aspectos positivos y aspectos que generan preguntas legítimas. Pero independientemente del debate sobre su diseño, algo es claro: va a existir. Y las instituciones que lleguen al momento de su entrada en vigor sin haber ordenado su propio ecosistema de IA estarán en una posición de desventaja —operativa, legal y estratégica.

Las acciones más urgentes para las IES son concretas:

Mapear los sistemas de IA en uso Identificar qué herramientas de IA opera la institución hoy y cuáles califican como de alto riesgo bajo la clasificación que propone la ley. Muchas IES no tienen este inventario.
Designar un responsable de gobernanza de IA No el área de sistemas. Un actor con autoridad real para establecer política institucional sobre el uso de IA, articular el cumplimiento normativo y representar a la institución ante reguladores.
Revisar la exposición jurídica Las áreas jurídicas institucionales necesitan analizar cómo la iniciativa afecta los procesos de admisión, evaluación, investigación y gestión de datos. Antes de que la ley esté vigente.
Construir o actualizar la política institucional de IA Las instituciones sin política formal de uso de IA están expuestas tanto a las sanciones de la ley como a los riesgos de integridad académica que ya se vienen documentando en esta serie.
Incidir en el proceso legislativo El texto todavía no está cerrado. Las IES, a través de la ANUIES y de sus instancias de representación, tienen la oportunidad de hacer llegar al Senado su perspectiva sobre los artículos que más las afectan. El tiempo es corto, pero no es cero.
El ICGU: el diagnóstico que la ley hace más necesario

En entregas anteriores de esta serie hemos documentado que menos del 10% de las IES mexicanas cuenta con un marco formal de gobernanza de IA. Que el uso es masivo —docentes, estudiantes y administrativos utilizan estas herramientas todos los días— mientras las instituciones operan sin política, sin responsables designados y sin claridad sobre lo que está permitido y lo que no.

Con la llegada de un marco regulatorio formal, ese vacío deja de ser solo un problema de visión estratégica. Se convierte en un problema de exposición legal. Y el primer paso para resolverlo es saber exactamente dónde está cada institución.

El Índice Campus de Gobernanza Universitaria (ICGU) es el primer instrumento nacional de medición sistemática del estado de preparación de las IES mexicanas para gestionar los retos tecnológicos, de integridad académica y de gobernanza institucional del siglo XXI. No es un ranking académico ni un ejercicio comparativo de prestigio. Es un espejo institucional: le dice a cada universidad exactamente en qué punto está y qué necesita construir para avanzar.

Participar en el ICGU no es solo obtener un diagnóstico. Es contar con un mapa de dónde está la institución, qué necesita construir y en qué orden, antes de que el regulador llegue a preguntar. Las instituciones que hayan hecho ese trabajo tendrán una ventaja real: cumplirán más rápido, con menor costo, y podrán posicionarse como referentes ante la nueva Autoridad Nacional de Inteligencia Artificial.

Quienes aún no lo hayan hecho llegarán al mismo destino, pero sin el mapa. Y con la ley vigente.

La pausa que se abrió esta semana —cuando el debate en redes forzó al presidente de la Comisión a aclarar públicamente el alcance de la iniciativa y a posponer su presentación formal— es exactamente la ventana que el sector educativo necesita para hacer llegar su voz. Particularmente sobre lo que la ley sí impone a las universidades como operadoras de sistemas de IA de alto riesgo: registro, evaluación de impacto, cumplimiento normativo, régimen sancionatorio. Esa conversación todavía no ha ocurrido. Y el tiempo para tenerla se está agotando.

Fundadora de Suplemento Campus.
Vanessa Medina Armienta
Directora de Estrategia y Desarrollo Institucional | Campus Consulting | Suplemento Campus | vanessamedina@suplementocampus.com | Web |  + posts

Especialista en regulación, educación superior e inteligencia artificial, con más de 25 años de experiencia en el sector público federal mexicano — SHCP, CNBV, SRE y Cámara de Diputados, entre otras instituciones. Es Directora de Campus Consulting, donde acompaña a universidades mexicanas en el diseño e implementación de políticas institucionales de IA responsable. Licenciada en Relaciones Internacionales por la UNAM, Maestra en Relaciones Internacionales por la Universidad de Nottingham, Reino Unido (Beca Chevening) y Maestra en Consultoría Organizacional y de Negocios por ICE México.

Columna Campus: Un-Common Sense

¿Te gustó este artículo?

Recibe contenidos como este cada semana en tu inbox.
Únete a +450 líderes de educación superior que ya leen Campus.

Recibir newsletter →

Sin spam · Solo lo mejor de la educación superior en México

Integridad Académica Digital en la Era de la IA 📥 Descarga gratis
📄 Paper · Campus Consulting
Integridad Académica Digital
en la Era de la IA

Un instrumento de política pedagógica para el aula y para la institución. Marcos prácticos para docentes universitarios, coordinadores académicos y autoridades que necesitan responder con criterio, proporcionalidad y fundamento.

Marzo 2026 · Publicación
Serie: Grandes Retos del Siglo XXI
Campus Consulting ©
Descargar documento gratuito Formulario breve · Los datos se usan únicamente para estadísticas de gobernanza en IES mexicanas
Modelo de Política Institucional de IA para universidades mexicanas
Descarga gratuita

Campus Consulting · Grandes Retos del Siglo XXI

Modelo de Política Institucional de IA

Para universidades mexicanas · Marzo 2026

📄 PDF · Descarga libre 🏛️ Campus Consulting 📅 Mar. 2026
Descargar modelo Acceso inmediato · Sin costo
IA en Educación Superior — Guía práctica para universidades mexicanas 2025
Descarga gratuita

Campus Consulting · Grandes Retos del Siglo XXI

IA en Educación Superior

Guía práctica para universidades mexicanas · Oct. 2025

📄 PDF · Descarga libre 🏛️ Campus Consulting 📅 Oct. 2025
Descargar guía Acceso inmediato · Sin costo
Campus Consulting · Instrumento de medición
Índice Campus de Gobernanza Universitaria
ICGU · Primera edición: 2026

Instrumento pionero y único en su tipo en México para la medición sistemática del estado de preparación de las instituciones de educación superior mexicanas para gestionar los retos tecnológicos, de integridad académica y de gobernanza institucional del siglo XXI. No es un ranking. Es una herramienta de mejora continua.

  • 25 indicadores en escala 0–5 por dimensión
  • Diagnóstico inicial gratuito para toda IES participante
  • Sello Campus de Gobernanza Universitaria
  • Publicación en Suplemento Campus y difusión nacional
  • Informe de posicionamiento sectorial confidencial
Primera edición
2026
¿Te interesa registrarte en el ICGU o quieres más detalles? Visita la página del ICGU2026 →

Campus Consulting · contacto@suplementocampus.com

Las + Populares
Edición Especial Campus · Milenio
Educación Superior 2026 ¿Está México preparado?
Diciembre 2025
Educación Superior 2026: ¿Está México preparado?

Ejemplar especial que aborda los retos más relevantes que enfrentan las universidades en 2026.

  • Panorama de la educación superior mexicana
  • Generación Netflix y el reto que impulsa la SEP
  • Entrevistas con subsecretarios de Educación Superior
  • Análisis y perspectivas para 2026
Adquirir ejemplar →

Descarga inmediata · Formato PDF

Campus Consulting · Brazo estratégico de Suplemento Campus
¿Tu institución ya tiene una estrategia de gobernanza para la IA?

Acompañamos a universidades mexicanas en el diseño de políticas institucionales de IA, integridad académica digital y gobernanza de datos. Con el respaldo de 25 años de cobertura editorial especializada.

📋 Diagnóstico institucional 📜 Política de IA 🛡️ Integridad académica 📊 ICGU 2026 📡 Posicionamiento institucional
Conoce cómo te ayudamos → Sin compromiso · Diagnóstico inicial gratuito