Gobierno de EE.UU. evalúa revisión estatal de modelos de IA antes de su lanzamiento público
Por: Redacción Paragrafo
6 mayo, 2026

El Gobierno de Estados Unidos, bajo la administración de Donald Trump, analiza implementar un proceso de supervisión estatal para los nuevos modelos de inteligencia artificial (IA) antes de su comercialización. Esta medida, revelada por The New York Times, representa un giro significativo en la política tecnológica de la Casa Blanca, que hasta ahora priorizaba la mínima intervención regulatoria para competir con China en la carrera por la supremacía en IA.
Según fuentes cercanas a las discusiones, la Casa Blanca prepara una orden ejecutiva que crearía un grupo de trabajo intersectorial. Este equipo integraría a funcionarios federales y líderes de empresas tecnológicas para evaluar riesgos potenciales en desarrollos de IA avanzada. El objetivo es establecer mecanismos de revisión previa, asegurando que estas herramientas no comprometan la seguridad nacional ni la ciberseguridad antes de llegar al mercado abierto.
La iniciativa surge en un momento de creciente preocupación por los impactos de la IA. Funcionarios han compartido estos planes con directivos de gigantes como Google, OpenAI y Anthropic durante reuniones recientes. El reporte, conocido este lunes, destaca que el enfoque busca equilibrar la innovación con controles preventivos, sin frenar el dinamismo de Silicon Valley.
Cambio de rumbo en la regulación de inteligencia artificial
Este posible viraje contrasta con la postura inicial de la administración Trump, que defendía un marco de baja regulación para acelerar el avance tecnológico estadounidense. Desde su llegada al poder, el Gobierno promovió la libertad operativa de las compañías para contrarrestar el liderazgo chino en IA, enfocándose en sectores estratégicos como la defensa y la economía digital.
Sin embargo, eventos recientes han impulsado esta reevaluación. Un catalizador clave fue el anuncio de Anthropic sobre su modelo Mythos, una IA especializada en ciberseguridad. La empresa decidió no lanzarlo públicamente debido a sus capacidades para detectar vulnerabilidades críticas en software. En su lugar, restringió el acceso solo a un selecto grupo de firmas estadounidenses, temiendo que una difusión masiva pudiera facilitar ciberataques o exploits maliciosos.
El caso Mythos ha reavivado debates sobre los límites éticos y regulatorios de la IA. Expertos advierten que modelos con potencial para identificar fallas complejas en infraestructuras digitales podrían alterar el equilibrio de poder en ciberseguridad si caen en manos equivocadas. Fuentes citadas por EFE indican que esta decisión de Anthropic influyó directamente en las deliberaciones de la Casa Blanca, subrayando la necesidad de supervisión para tecnologías de alto impacto.
El cambio regulatorio coincide con transformaciones internas en el equipo tecnológico del Gobierno. En marzo, David Sacks, conocido como el “zar de la IA”, dejó su cargo, lo que abrió espacio para una visión más cautelosa. Ahora, la jefa de gabinete Susie Wiles y el secretario del Tesoro Scott Bessent lideran las discusiones sobre políticas de IA, priorizando amenazas como la vigilancia tecnológica y las aplicaciones en seguridad informática.
Aunque no hay una decisión final sobre el grupo de trabajo o revisiones obligatorias, las conversaciones reflejan una maduración en la estrategia de EE.UU. frente a la IA. Analistas ven en esto un intento de armonizar el impulso a la innovación con protecciones contra riesgos existenciales, manteniendo la ventaja competitiva global.
Esta evolución podría influir en el ecosistema de IA a nivel mundial. Empresas como OpenAI y Google, que han impulsado avances como ChatGPT y Gemini, enfrentan ahora la posibilidad de escrutinio previo, lo que podría ralentizar lanzamientos pero fortalecer la confianza pública. En un contexto de tensiones geopolíticas, donde China invierte masivamente en IA, EE.UU. busca posicionarse como líder responsable en esta tecnología transformadora.
Destacados
TENDENCIAS











