Fragilidad digital: la regulación que no puede esperar

Mayo 2026

Gerardo de la Cruz

La Nación

Mientras que algunas personas apenas están descubriendo cómo pedirle cosas básicas a ChatGPT, otros están programando plataformas completas con ayuda de agentes inteligentes como Claude Code o Codex. A tan poco tiempo de la explosión de la IA, resulta inevitable reflexionar sobre sus consecuencias y la urgente necesidad de regularla. No se trata sólo de la desigualdad, la brecha entre los que la usan y los que no, sino también de otros riesgos: la capacidad de hackear sistemas completos, lo que se conoce como “día cero” en sistemas que nadie había podido romper.

Anthropic en la mira

Hace unas semanas Anthropic -para mí la mejor hasta el momento- presentó Claude Mythos Preview, el modelo que presume supera a humanos expertos para encontrar y explotar días cero de forma autónoma, un modelo que identificó miles de vulnerabilidades en sistemas operativos y navegadores. La empresa decidió no lanzarlo públicamente, se especula que esto debido al alto riesgo de ser utilizada para actividades cibercriminales, mientras que otros dicen que es una estrategia de expectativa. Sin embargo, también informó que como parte del Project Glasswing, una iniciativa de ciberseguridad diseñada para proteger infraestructura de software crítico, les otorgó acceso a socios estratégicos como Amazon, Apple, Microsoft, Google, etcétera. Para que puedan mapear y arreglar posibles filtraciones o fallos dentro de sus sistemas.

¿Cuál es el verdadero problema?

Gran parte de nuestra vida depende de servicios en la nube como los bancos, el SAT, el IMSS y la CFE, y resulta inquietante que una IA tenga la capacidad para detectar y vulnerar estos sistemas a los que se puede acceder desde cualquier lugar, ya que en las manos equivocadas podría generar un ataque que afecte tanto a estas organizaciones como a los usuarios. Recordemos que el gobierno mexicano e instituciones públicas han sido víctimas de ciberataques, en diciembre del 2025 el grupo Chronus filtró 2.3 TB de datos sensibles de instituciones públicas: registros fiscales, padrón electoral, registros civiles y más, afectando a millones de mexicanos.

En este punto surgen preguntas importantes: ¿quién decide quién tiene acceso a estos avances?, ¿nuestras instituciones están preparadas?, ¿se podría vulnerar tanto el internet hasta hacerlo inhabitable? Y, sobre todo, ¿estamos dispuestos a regular antes de que una crisis nos obligue?

La importancia de las reglas

Por otra parte, Sam Altman (CEO de OpenAI) publicó a inicios de abril un documento llamado Industrial Policy for the Intelligence Age: Ideas to Keep People First, en el que plantea algunas políticas públicas ante la inminente relevancia de la IA en los puestos de trabajo, la economía y la gobernanza; entre ellas que se cobren impuestos a las empresas que utilicen automatizaciones de IA, reducir la carga sobre los salarios humanos, semanas laborales de cuatro días, democratizar el acceso a la IA y protocolos de contención ante situaciones donde la IA genere peligro y no sea apagada fácilmente, entre otras. Estas propuestas nos ayudan a imaginar un futuro donde la IA no nos remplace ni nos quite el trabajo, sino que sea una herramienta para mejorar nuestra calidad de vida.

México es un país donde la adopción de IA puede ayudar al crecimiento, pero también a la desigualdad. El Plan Nacional de Ciberseguridad 2025-2030 es una buena intención, pero necesitamos legislación que acompañe económicamente, que proteja, sin frenar, programas que incentiven la innovación local y que ponga a la persona humana en el centro.