El proceso de maduración que apreciamos en nuestros días en los productos de la inteligencia artificial (IA) ha hecho confluir de manera afortunada múltiples piezas de creación humana.
Es cierto que la innovación tecnológica es un componente central y ostensible en la IA: lenguajes de programación, semiconductores, centros de datos y arquitecturas de aplicaciones, entre muchos otros.
Pero también lo es el componente insustituible que la acompaña, que abre horizontes para su mayor utilidad. Ese componente lo conforma el cúmulo cultural (multilingüismo y pluriculturalidad): el caudal humano que alimenta a la innovación tecnológica y que otorga sentido a cada modelo entrenado en lenguaje natural, alma de la IA.
Las coordenadas que ofrecen lo cultural y lo lingüístico están presentes hasta en los términos en que se renuevan los lenguajes de programación y las aplicaciones (ahora, por obra y gracia de los agentes IA), y los modelos mejorados de lenguaje natural.
En las últimas semanas, han predominado en los canales digitales globales de opinión (con evidencia viral) tres preocupaciones en la agenda social, relacionada con la IA:
1• Los alcances de la innovación (es decir, el arribo inminente de la AI general, entendida como fase de equiparación con la inteligencia humana);
2• Los efectos y escenarios inminentes en sectores fundamentales de la vida de las personas (empleo, servicios y educación, entre otros); y
3• La regulación posible ante el creciente uso de la IA.
Aquí valoraremos el tercer aspecto, el estado que guardan los esfuerzos regulatorios en las mayores regiones del mundo, cuyo protagonismo corresponde a Europa. La conocida frase “efecto Bruselas” ha tomado carta de naturalización, desde que fue acuñada por la profesora Anu Bradford, en su artículo de 2012 (“The Brussels Effect”), para aludir a la arraigada tradición normativa del viejo continente.
El cronograma de trabajo para regular la IA inició en Europa desde 2021. Tres años más tarde, el Consejo de la Unión Europea decidió su aprobación. La perspectiva europea tomó como punto de partida el enfoque de contención, en cuatro niveles de riesgo (con acento en los derechos de las personas), que pareció no colocar con la relevancia suficiente a la praxis de innovación.
• Prohibiciones categóricas: estigmatización social; manipulación subliminal y reconocimiento facial en tiempo real.
• Rendición de cuentas: obligaciones para desarrolladores y emisores.
• Transparencia: Explicitar eventual afectación en decisiones automatizadas.
• Derechos: privacidad, dignidad humana, no discriminación.
Así se configuró el enfoque europeo basado en cuatro riesgos: inaceptable, alto, limitado y mínimo. El calendario para la protección cubre cuatro etapas, de manera paulatina, entre 2025 y 2027. Asistimos a la etapa tercera (2 de agosto, 2026), en la que entrarán en vigor la mayoría de las normas de ley para los sistemas de IA en Europa. Al año siguiente (2 de agosto, 2027), empezarán a aplicarse las llamadas normas de “alto riesgo” IA, para la protección de las personas.
Aunque todavía ningún país latinoamericano cuenta con una ley de IA aprobada por su Congreso o Asamblea, es evidente que la mayoría de las iniciativas que hoy son analizadas están basadas en el enfoque de riesgos.
Es probable que las iniciativas más completas y discutidas hasta hoy sean la chilena, la brasileña y la costarricense (en ese orden). Todo indica que la chilena podría entrar en vigor en 2026. Está inspirada en la documentación sectorial de la Unesco y de la OCDE, pero sobre todo de la Unión Europea. (Véase nuestra revisión sobre los distintos avances nacionales).
La regulación de la IA en el caso de los Estados Unidos se mantiene aún instalada sobre un terreno modificable. La Presidencia actual ha preferido rectificar de modo notable la visión federalizada que se mantenía aún en 2024. La reciente Orden Ejecutiva (11 de diciembre, 2025) desmontó el modelo previo y prefiguró un emplazamiento centralizado.
La Orden Ejecutiva del presidente Donald Trump parece privilegiar la innovación, pero no estamos seguros de si ha elegido la mejor estrategia. En conclusión, los cuatro planteamientos de la orden ejecutiva estadounidense se colocan muy por detrás de los avances europeos, en cuanto a definición de una política expresa para la IA. Procedemos a resumir los puntos mayores, para inferir sus prioridades:
Buscará frenar las leyes estatales, para evitar que entren en conflicto con la política federal en proceso de definición: “una norma nacional mínimamente gravosa, no 50 normas estatales discordantes”.
Creará un grupo de trabajo para abordar litigios de IA: esto es, los litigios que surjan como impugnación de las propias leyes estatales de IA.
Revisará leyes estatales de IA: su premisa es que algunas leyes estatales contienen modelos de IA que obligan a desarrolladores a divulgar información y, con ello, “violan la Primera Enmienda”, sobre libertades fundamentales.
Vinculará el desarrollo de la IA con el Programa de Acceso e Implementación Equitativa de Banda Ancha: quiere asociar las aplicaciones de IA con las redes de alta velocidad, para procurar conectividad universal.
En suma, el contraste entre las experiencias normativas nacionales nos ilustra la proporción del rezago que existe entre el uso creciente de los sistemas IA en el mundo y el distante consenso regulatorio en la materia.
Carlos Macías Richard
Profesor-Investigador Ciesas Peninsular
- This author does not have any more posts.







