Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

El largo camino de la regulación IA

A pesar del uso creciente de esta tecnología en el mundo, existe un rezago en las normativas relativas a su ejecución

🎧 Escucha este artículo en audio. Este contenido está disponible solo para nuestros miembros. 🌟 👉 Únete aquí.

La mayoría de las iniciativas hoy están basadas en los posibles riesgos.

El proceso de maduración que apreciamos en nuestros días en los productos de la inteligencia artificial (IA) ha hecho confluir de manera afortunada múltiples piezas de creación humana.

Es cierto que la innovación tecnológica es un componente central y ostensible en la IA: lenguajes de programación, semiconductores, centros de datos y arquitecturas de aplicaciones, entre muchos otros.

Pero también lo es el componente insustituible que la acompaña, que abre horizontes para su mayor utilidad. Ese componente lo conforma el cúmulo cultural (multilingüismo y pluriculturalidad): el caudal humano que alimenta a la innovación tecnológica y que otorga sentido a cada modelo entrenado en lenguaje natural, alma de la IA.

Las coordenadas que ofrecen lo cultural y lo lingüístico están presentes hasta en los términos en que se renuevan los lenguajes de programación y las aplicaciones (ahora, por obra y gracia de los agentes IA), y los modelos mejorados de lenguaje natural.

En las últimas semanas, han predominado en los canales digitales globales de opinión (con evidencia viral) tres preocupaciones en la agenda social, relacionada con la IA:

1• Los alcances de la innovación (es decir, el arribo inminente de la AI general, entendida como fase de equiparación con la inteligencia humana);
2• Los efectos y escenarios inminentes en sectores fundamentales de la vida de las personas (empleo, servicios y educación, entre otros); y
3• La regulación posible ante el creciente uso de la IA.

Aquí valoraremos el tercer aspecto, el estado que guardan los esfuerzos regulatorios en las mayores regiones del mundo, cuyo protagonismo corresponde a Europa. La conocida frase “efecto Bruselas” ha tomado carta de naturalización, desde que fue acuñada por la profesora Anu Bradford, en su artículo de 2012 (“The Brussels Effect”), para aludir a la arraigada tradición normativa del viejo continente.

El cronograma de trabajo para regular la IA inició en Europa desde 2021. Tres años más tarde, el Consejo de la Unión Europea decidió su aprobación. La perspectiva europea tomó como punto de partida el enfoque de contención, en cuatro niveles de riesgo (con acento en los derechos de las personas), que pareció no colocar con la relevancia suficiente a la praxis de innovación.
• Prohibiciones categóricas: estigmatización social; manipulación subliminal y reconocimiento facial en tiempo real.
• Rendición de cuentas: obligaciones para desarrolladores y emisores.
• Transparencia: Explicitar eventual afectación en decisiones automatizadas.
• Derechos: privacidad, dignidad humana, no discriminación.

Así se configuró el enfoque europeo basado en cuatro riesgos: inaceptable, alto, limitado y mínimo. El calendario para la protección cubre cuatro etapas, de manera paulatina, entre 2025 y 2027. Asistimos a la etapa tercera (2 de agosto, 2026), en la que entrarán en vigor la mayoría de las normas de ley para los sistemas de IA en Europa. Al año siguiente (2 de agosto, 2027), empezarán a aplicarse las llamadas normas de “alto riesgo” IA, para la protección de las personas.

Aunque todavía ningún país latinoamericano cuenta con una ley de IA aprobada por su Congreso o Asamblea, es evidente que la mayoría de las iniciativas que hoy son analizadas están basadas en el enfoque de riesgos.

Es probable que las iniciativas más completas y discutidas hasta hoy sean la chilena, la brasileña y la costarricense (en ese orden). Todo indica que la chilena podría entrar en vigor en 2026. Está inspirada en la documentación sectorial de la Unesco y de la OCDE, pero sobre todo de la Unión Europea. (Véase nuestra revisión sobre los distintos avances nacionales).

La regulación de la IA en el caso de los Estados Unidos se mantiene aún instalada sobre un terreno modificable. La Presidencia actual ha preferido rectificar de modo notable la visión federalizada que se mantenía aún en 2024. La reciente Orden Ejecutiva (11 de diciembre, 2025) desmontó el modelo previo y prefiguró un emplazamiento centralizado.

La Orden Ejecutiva del presidente Donald Trump parece privilegiar la innovación, pero no estamos seguros de si ha elegido la mejor estrategia. En conclusión, los cuatro planteamientos de la orden ejecutiva estadounidense se colocan muy por detrás de los avances europeos, en cuanto a definición de una política expresa para la IA. Procedemos a resumir los puntos mayores, para inferir sus prioridades:

Buscará frenar las leyes estatales, para evitar que entren en conflicto con la política federal en proceso de definición: “una norma nacional mínimamente gravosa, no 50 normas estatales discordantes”.

Creará un grupo de trabajo para abordar litigios de IA: esto es, los litigios que surjan como impugnación de las propias leyes estatales de IA.

Revisará leyes estatales de IA: su premisa es que algunas leyes estatales contienen modelos de IA que obligan a desarrolladores a divulgar información y, con ello, “violan la Primera Enmienda”, sobre libertades fundamentales.

Vinculará el desarrollo de la IA con el Programa de Acceso e Implementación Equitativa de Banda Ancha: quiere asociar las aplicaciones de IA con las redes de alta velocidad, para procurar conectividad universal.

En suma, el contraste entre las experiencias normativas nacionales nos ilustra la proporción del rezago que existe entre el uso creciente de los sistemas IA en el mundo y el distante consenso regulatorio en la materia.

Carlos Macías Richard
Ciesas Peninsular |  + posts

Profesor-Investigador Ciesas Peninsular

📬 ¿Te gustó este artículo?

Recibe contenidos como este cada semana en tu inbox.

Únete a +450 líderes de educación superior que ya leen Campus.

© 2025 Suplemento Campus. Todos los derechos reservados. Los artículos de opinión, análisis, entrevistas y reportajes publicados en este sitio son originales y exclusivos de Suplemento Campus. Queda estrictamente prohibida su reproducción total o parcial en cualquier otro medio, impreso o digital, sin autorización previa por escrito. El uso no autorizado del contenido podrá dar lugar a acciones legales conforme a la legislación vigente sobre derechos de autor.

86% de estudiantes universitarios ya usa IA.

Pero menos del 10% de las universidades tiene lineamientos formales.¿El resultado? Rectorías navegando a ciegas mientras la brecha crece cada semestre.

En Campus Consulting creamos la una Guía práctica para Universidades Mexicanas 2025 sobre IA en educación superior.

Inteligencia Artificial Responsable en tu Universidad

Ayudamos a universidades mexicanas a implementar IA de manera responsable, evitando crisis de integridad académica y aprovechando ventajas competitivas.

Campus Consulting es el brazo de consultoría del Suplemento Campus.

¿Tu institución ya tiene una política de Inteligencia Artificial responsable?

Campus Consulting te apoya con:

✅ Diagnóstico institucional

✅ Desarrollo de políticas IA

✅ Capacitación docente

Implementación completa

Descubre más desde CAMPUS MILENIO

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo