Durante años la pregunta fue sencilla: ¿cuándo llegaría la inteligencia artificial a México? Hoy la incógnita cambió y es más directa: ¿qué vamos a hacer con lo que ya está aquí?
En pocas semanas aparecieron señales claras. El gobierno federal presentó los llamados Principios de Chapultepec, un decálogo para orientar el uso ético de la IA con enfoque de derechos humanos. En el Congreso se discuten reformas al Código Penal para sancionar los deepfakes, sobre todo en casos de violencia digital y en procesos electorales. A la par, el INE capacita a su personal ante riesgos de desinformación y el Banco de México plantea estándares técnicos sobre gobernanza de modelos de IA en sectores regulados.
Todo ocurre a la vez. Y no es casualidad.
México está entrando —aunque aún no lo nombre así— en su primer momento regulatorio de la inteligencia artificial.
No se trata de una ley integral al estilo de la Unión Europea ni de un sistema completamente cerrado. Es, por ahora, una combinación de principios, presión institucional y reacciones legislativas frente a riesgos concretos. Un modelo híbrido que, bien ejecutado, puede ser flexible y útil; mal llevado, puede traducirse en incertidumbre.
Mientras el sector público define reglas, el privado ya juega.
Muchas compañías pasaron de probar prompts a desplegar agentes de IA que inciden en ventas, atención a clientes, marketing y operaciones. La discusión ya no es si usar IA, sino cómo escalarla con retorno de inversión.
El problema es que ese avance operativo no siempre llega acompañado de una estrategia legal.
Ahí empiezan los riesgos reales: generar contenido sin claridad sobre posibles infracciones a derechos de terceros; entrenar modelos con datos cuyo licenciamiento es incierto; o usar voces, imágenes y estilos sin medir las implicaciones de los llamados “dobles digitales”.
Los deepfakes también dejaron de ser un tema técnico para convertirse en un problema social y jurídico. Las iniciativas penales buscan castigar conductas y, al mismo tiempo, enviar un mensaje claro: hay límites.
Pero el ámbito penal es solo una parte de la historia.
La otra, menos visible y igual de relevante, avanza en el terreno técnico. El Banco de México ya pone sobre la mesa conceptos que hace poco parecían lejanos para muchas organizaciones: explicabilidad, sesgos, gobernanza de modelos, trazabilidad. No es una ley, pero opera como lo que el mercado entiende muy bien: un estándar.
Y en sectores regulados, los estándares suelen volverse obligación antes de que exista una norma formal.
Eso cambia la conversación para las empresas.
La inteligencia artificial deja de ser solo una ventaja competitiva y se convierte en una fuente directa de responsabilidad. La pregunta ya no es únicamente qué puedes hacer con IA, sino si puedes demostrar cómo lo haces: explicar por qué un modelo decide lo que decide, acreditar el origen de los datos y responder con rapidez cuando algo sale mal.
En paralelo, asoma otra expectativa: el etiquetado de contenido generado o alterado con IA. En ámbitos como el electoral o el publicitario, podría surgir como práctica de debida diligencia antes que como obligación formal. Como suele ocurrir, el mercado se adelanta a la regulación.
Ante este panorama, es fácil pensar que regular es frenar.
En realidad, hoy la regulación funciona como señal: la IA dejó de ser experimento, su impacto amerita reglas y las empresas que lo asuman a tiempo no solo mitigarán riesgos, también construirán confianza.
Competir con IA no es únicamente adoptar tecnología. Es adoptar responsabilidad.
México aún puede construir un modelo propio que permita innovar sin perder de vista los riesgos. Ese equilibrio no nacerá solo desde el legislador: se definirá día a día en las empresas, en las decisiones de quienes diseñan, implementan y usan estas herramientas.
A fin de cuentas, el verdadero momento regulatorio no llega cuando se publica una ley. Llega cuando la realidad obliga a comportarse como si ya existiera.