Regular la IA con cárcel: cuando el Estado entra tarde y entra duro - Enfoque México

AHORA

Política
Ver más
Nacional
Ver más
Geopolítica
Ver más
Epistemología
Ver más
Matices
Ver más
Artículos
Ver más

lunes, 20 de abril de 2026

Regular la IA con cárcel: cuando el Estado entra tarde y entra duro


La propuesta del Senado para crear la primera Ley de Inteligencia Artificial en México no solo busca ordenar una tecnología emergente: también marca la forma en que el Estado quiere recuperar control sobre un terreno que creció más rápido que su capacidad normativa. La iniciativa, trabajada durante diez meses por senadores de distintos partidos, contempla la creación de una Autoridad Nacional de IA, una Estrategia Nacional, un Fondo Nacional para el Desarrollo y un Sistema Nacional de Certificación. No es una reforma menor: es el intento de construir un aparato institucional entero alrededor de una tecnología que ya circula sin pedir permiso.

Lo más llamativo del proyecto es su tono punitivo. La propuesta introduce una clasificación inédita de infracciones leves, graves y gravísimas, y reserva para estas últimas la posibilidad de sanciones penales. Entre las conductas consideradas gravísimas aparecen el uso de IA para manipulación cognitiva, política, electoral o social con fines ilícitos o contrarios a principios democráticos; la operación de sistemas autónomos letales sin supervisión humana significativa; la vigilancia masiva sin base legal suficiente; y el suministro de sistemas diseñados principalmente para fraude, extorsión, desinformación o suplantación de identidad.

Desde una lectura de poder y discurso, el mensaje es claro: el Estado mexicano quiere presentarse ya no como observador rezagado, sino como árbitro de los usos legítimos de la inteligencia artificial. El problema es que esa entrada regulatoria ocurre en un contexto donde la conversación pública sobre IA suele oscilar entre la fascinación tecnológica y el pánico moral. En ese terreno, hablar de cárcel por “infracciones gravísimas” puede ser leído tanto como una defensa de derechos como una forma de sobrerreacción legislativa. La cuestión no es solo regular, sino definir bajo qué lenguaje y con qué límites se hará.

Hay, sin embargo, un componente valioso en la iniciativa: la atención prioritaria a la violencia digital de género. El texto propone prohibir expresamente prácticas como la generación o difusión de deepfakes sexuales o íntimos sin consentimiento, así como la manipulación de imágenes, audios o videos para humillar, acosar, extorsionar o ejercer violencia contra mujeres. También incluye campañas automatizadas de odio o desprestigio basadas en género y sistemas diseñados para facilitar ciberacoso o persecución digital. En un país donde la violencia tecnológica ya dejó de ser una amenaza abstracta, esta parte del proyecto tiene una fuerza política y ética evidente.

La iniciativa también avanza sobre zonas especialmente sensibles, como el reconocimiento de emociones en entornos laborales, educativos, migratorios, policiales o de selección de personal, cuando estos sistemas generen discriminación, afecten la autonomía o carezcan de base científica verificable. A ello se suman prohibiciones sobre sistemas de puntuación social, identificación biométrica masiva en tiempo real sin orden judicial y sistemas que exploten deliberadamente vulnerabilidades de grupos en situación de riesgo, como niñas, niños, personas mayores, personas con discapacidad o pueblos indígenas. Aquí la regulación no solo castiga daños consumados: intenta anticiparse a formas de automatización que podrían normalizar nuevas jerarquías de vigilancia.

Aun así, el texto abre preguntas delicadas. La categoría de manipulación “cognitiva, política, electoral o social” es potente, pero también exige definiciones muy finas para no convertirse en un cajón elástico. La iniciativa aclara que no quedarán comprendidas las actividades de comunicación política, publicidad o difusión de ideas realizadas conforme a la ley y a principios democráticos, pero esa excepción no elimina del todo la tensión: cuando el Estado se reserva la facultad de clasificar ciertos usos algorítmicos como amenazas democráticas, también amplía su margen para intervenir en el terreno del discurso.

En términos psicosociales, la propuesta revela un cambio de clima cultural frente a la IA. Durante un tiempo, buena parte del debate estuvo dominado por promesas de eficiencia, innovación y productividad. Ahora, la conversación se mueve hacia el daño, el riesgo, la manipulación y la defensa del ciudadano frente a sistemas opacos. El enfoque de la ley, de hecho, se declara explícitamente basado en riesgos: clasificar los sistemas según su impacto potencial en derechos humanos, seguridad nacional, estabilidad democrática, salud pública, medio ambiente y economía. Lo que está emergiendo no es solo una regulación técnica, sino una nueva pedagogía del temor tecnológico.

La pregunta de fondo no es si México necesita regular la inteligencia artificial, porque la respuesta parece evidente. La verdadera discusión está en qué tipo de Estado va a construir esa regulación: uno capaz de proteger derechos con criterios claros, supervisión seria y proporcionalidad, o uno que use el lenguaje del riesgo para extender control de manera ambigua sobre la innovación, la expresión y la vida digital. Regular tarde no obliga a regular mal, pero sí aumenta la tentación de entrar con dureza. Y eso vuelve esta iniciativa algo más que una ley tecnológica: la convierte en una disputa sobre cómo se ejercerá el poder en la era algorítmica.

Fuente: Leticia Robles de la Rosa, “Senado abre camino a la regulación de la IA: cárcel por ‘infracciones gravísimas’”, Excélsior, 20 de abril de 2026. 

No hay comentarios:

Publicar un comentario