
IA On-Premise para Gobierno: Cumpliendo los Requisitos de Datos de Seguridad Nacional
Una guía vertical para compradores gubernamentales y de defensa que evalúan infraestructura de IA on-premise — cubriendo FedRAMP, ITAR, NIST 800-171, compatibilidad con redes clasificadas, operaciones air-gapped, y el desafío de preparación de datos que la mayoría de los proveedores ignoran.
Las agencias gubernamentales y organizaciones de defensa operan bajo restricciones que hacen inutilizables la mayoría de los productos comerciales de IA. No inconvenientes — realmente inutilizables. Cuando tus datos están clasificados a nivel IL5 o superior, enviarlos a una API en la nube no es una preferencia de política. Es un delito federal.
Esto crea una tensión fundamental. Las capacidades de IA que las empresas comerciales adoptan en semanas — análisis de documentos, optimización logística, mantenimiento predictivo — requieren meses o años de planificación de infraestructura en contextos gubernamentales. Y la mayoría de los proveedores de IA no entienden por qué.
Esta guía mapea los requisitos, arquitecturas y marcos de cumplimiento que los despliegues de IA gubernamentales realmente necesitan satisfacer. Está escrita para gerentes de programa, CTOs en contratistas de defensa y líderes de TI en agencias federales que están evaluando infraestructura de IA on-premise.
Por Qué la IA Comercial en la Nube Falla para el Gobierno
El discurso de los principales proveedores de nube es directo: usa nuestros servicios de IA, nosotros manejamos la autorización FedRAMP, tus datos se quedan en una región gubernamental. Para cargas de trabajo no clasificadas en Impact Level 2, esto puede funcionar. Para cualquier nivel superior, el discurso se desmorona de cuatro maneras específicas.
La Soberanía de Datos No Es Solo una Casilla de Cumplimiento
Cuando un proveedor comercial de IA procesa datos gubernamentales, los datos están sujetos a las obligaciones legales del proveedor — no solo la ley de EE.UU., sino potencialmente las leyes de cualquier jurisdicción donde el proveedor opera. Un proveedor con operaciones en países que tienen leyes de divulgación obligatoria de datos crea una exposición legal que ningún BAA o adenda contractual elimina completamente.
Para datos clasificados, esto no es teórico. La Orden Ejecutiva 14028 (Mejorando la Ciberseguridad de la Nación) requiere explícitamente que las agencias comprendan y controlen sus cadenas de suministro de software. Un modelo de IA entrenado con datos de cientos de fuentes, ejecutándose en infraestructura compartida, con ciclos de actualización controlados por el proveedor, no cumple ese estándar.
El Comportamiento del Modelo No Puede Ser Auditado ni Controlado
Cuando usas una API de IA en la nube, estás llamando a un modelo que el proveedor controla. Pueden actualizarlo, reentrenarlo, ajustar sus filtros de seguridad o descontinuarlo por completo — a menudo sin aviso. Para una empresa comercial, esto significa cambios ocasionales en la calidad de salida. Para una agencia gubernamental tomando decisiones basadas en análisis de inteligencia asistido por IA, un cambio de comportamiento no anunciado es un riesgo operacional.
No puedes auditar un modelo que no alojas. No puedes fijar una versión de un modelo que el proveedor no te deja descargar. No puedes ejecutar pruebas de regresión contra un modelo que cambió durante la noche.
Las Actualizaciones Ocurren Sin Supervisión Gubernamental
Los proveedores comerciales de IA lanzan actualizaciones de modelos según su propio calendario. OpenAI ha descontinuado modelos con tan solo seis meses de aviso. Para un sistema de defensa que tardó 18 meses en lograr la Autorización para Operar (ATO), un aviso de descontinuación de modelo significa reiniciar el proceso de certificación — o ejecutar un modelo sin soporte.
Riesgo de Recolección de Inteligencia Extranjera
Los servicios de IA en la nube procesan datos en centros de datos. Los centros de datos tienen personal. El personal puede ser objetivo. Para cargas de trabajo clasificadas, la superficie de ataque de un entorno de nube compartido — incluso uno designado para gobierno — es fundamentalmente mayor que una instalación on-premise air-gapped con personal con habilitación de seguridad.
Mapeo de Marcos de Cumplimiento
Los despliegues de IA gubernamentales deben satisfacer múltiples marcos de cumplimiento superpuestos. Así es como se mapean a las decisiones de arquitectura de despliegue:
| Marco | Alcance | Implicación Clave para IA | ¿Compatible con Nube? |
|---|---|---|---|
| FedRAMP High | Sistemas federales con datos de alto impacto | Toda la infraestructura de IA debe estar dentro del perímetro FedRAMP High | Sí, con CSP autorizado |
| NIST 800-171 | CUI (Información No Clasificada Controlada) | Los datos de entrenamiento de IA que contienen CUI deben protegerse según 110 controles | Condicionalmente |
| ITAR | Artículos de defensa y datos técnicos | El procesamiento de IA con datos ITAR no puede ocurrir en infraestructura accesible por extranjeros | Restringido |
| NIST AI RMF | Gestión de riesgos de sistemas de IA | Requiere documentación del comportamiento del sistema de IA, pruebas y monitoreo | Neutral en arquitectura |
| IL4 | CUI en sistemas del DoD | Infraestructura dedicada en la nube, soporte solo en EE.UU. | Solo nube del DoD |
| IL5 | CUI de mayor sensibilidad y datos de misión | Infraestructura físicamente separada, personal con adjudicación de Seguridad Nacional | Opciones de nube muy limitadas |
| IL6 | Clasificado (hasta SECRET) | Air-gapped, protecciones a nivel SCIF | Sin nube comercial |
La implicación práctica: cualquier sistema de IA que procese datos en IL5 o superior necesita infraestructura on-premise. Para IL6 y superior (SIPRNet, JWICS), la operación air-gapped no es opcional — es el único modelo de despliegue legal.
Marco de Gestión de Riesgos de IA NIST (AI RMF)
El AI RMF no exige un modelo de despliegue específico, pero sus requisitos en torno a gobernanza, mapeo, medición y gestión son sustancialmente más fáciles de satisfacer con infraestructura on-premise:
- Gobernar: Establecer responsabilidad sobre el comportamiento de la IA requiere control sobre el ciclo de vida del modelo. Difícil cuando el proveedor controla las actualizaciones.
- Mapear: Comprender el contexto del sistema de IA y sus impactos potenciales requiere visibilidad de los datos de entrenamiento y la arquitectura del modelo. Los modelos propietarios en la nube no proporcionan ninguna de las dos cosas.
- Medir: La evaluación continua de las salidas de IA requiere ejecutar suites de benchmark contra el modelo en producción. Esto requiere acceso al modelo, no solo a su API.
- Gestionar: Responder a riesgos identificados — revertir una versión del modelo, ajustar parámetros de inferencia, parchear una vulnerabilidad — requiere acceso a la infraestructura.
Arquitectura para IA Gubernamental
Un despliegue de IA de grado gubernamental tiene requisitos arquitectónicos específicos que difieren de las configuraciones on-premise comerciales.
Componentes Principales de Infraestructura
Clúster de cómputo air-gapped: Nodos GPU (típicamente NVIDIA A100 o H100) en una red físicamente aislada. Sin conectividad a internet. Sin resolución DNS. Sin sincronización NTP a servidores externos (usa una fuente de tiempo local o receptor GPS).
Registro local de modelos: Un repositorio versionado de modelos aprobados, almacenado en la red clasificada. Los modelos se transfieren mediante una solución cross-domain o transferencia manual de medios después de revisión de seguridad. Cada versión de modelo es verificada por hash y registrada.
Servidor de inferencia on-premise: vLLM, TGI o Triton Inference Server ejecutándose en GPUs locales. El servidor de inferencia maneja todas las solicitudes de IA sin dependencias externas en tiempo de ejecución — sin verificaciones de licencia, sin telemetría, sin descargas de modelos.
Pipeline de preparación de datos: El componente menos maduro en la mayoría de las arquitecturas de IA gubernamentales, y a menudo el cuello de botella. Más sobre esto a continuación.
Infraestructura de auditoría y logging: Cada solicitud de inferencia, carga de modelo, acceso a datos y cambio de configuración registrado en un sistema de auditoría a prueba de manipulaciones. Aplican los controles AU de NIST 800-53.
Arquitectura de Red
Para cargas de trabajo clasificadas:
[Classified Data Sources] → [Data Prep Pipeline] → [Training/Fine-tuning] → [Model Registry]
↓ ↓
[Analyst Workstations] ← [Inference Server] ← [Approved Model Version]
↓
[Audit Log Aggregator] → [SIEM / Compliance Reporting]
Cada componente se ejecuta dentro del perímetro de la red clasificada. No hay opción "híbrida" para datos clasificados. El único punto de contacto externo es la solución cross-domain utilizada para importar modelos base sanitizados y exportar resultados desclasificados.
Selección de Modelos para Gobierno
Los despliegues gubernamentales favorecen abrumadoramente los modelos de pesos abiertos por una razón práctica: no puedes auditar lo que no puedes inspeccionar.
| Clase de Modelo | Parámetros | Caso de Uso Típico | Idoneidad para Clasificación |
|---|---|---|---|
| Llama 3.x (70B) | 70B | Análisis complejo, generación de informes | Todos los niveles con transferencia adecuada |
| Mistral/Mixtral | 7B–47B | Propósito general, multilingüe | Todos los niveles |
| Phi-3/Phi-4 | 3.8B–14B | Despliegue en el borde, recursos limitados | Ideal para táctico/desplegado en el frente |
| Modelos de dominio ajustados | 7B–14B | Tareas específicas (NER, clasificación) | Todos los niveles; preferido para producción |
Los modelos más pequeños (7B–14B) son preferidos para despliegues de producción porque requieren menos cómputo, responden más rápido, y pueden ajustarse con datos gubernamentales específicos del dominio para superar a modelos más grandes de propósito general en tareas dirigidas.
El Contexto del Contrato de OpenAI con el DoD
A principios de 2025, OpenAI aseguró contratos con el Departamento de Defensa de EE.UU. y otras entidades gubernamentales. Esto fue ampliamente reportado como validación de que la IA en la nube podía servir las necesidades gubernamentales. La realidad es más matizada.
Incluso con estos contratos en vigor, las comunidades de defensa e inteligencia están construyendo capacidades de IA independientes en paralelo. ¿Por qué?
El riesgo de dependencia del proveedor es una preocupación de seguridad nacional. Cuando las decisiones empresariales de un solo proveedor de IA — cambios de liderazgo, giros de política, ajustes de precios, asociaciones extranjeras — pueden afectar las operaciones de defensa, eso es una vulnerabilidad estratégica. La preocupación no es hipotética: la estructura organizacional de OpenAI ha cambiado múltiples veces, su liderazgo de seguridad ha experimentado una rotación significativa, y sus prioridades comerciales evolucionan trimestre a trimestre.
Los gobiernos aliados están construyendo capacidades soberanas. El AI Safety Institute del Reino Unido, las inversiones de IA soberana de Francia, los programas de IA de defensa de Australia — ninguno de estos depende de un solo proveedor estadounidense. Están construyendo infraestructura de IA doméstica precisamente porque depender de la entidad comercial de otra nación para capacidades de defensa es un riesgo inaceptable, independientemente de la relación actual.
Muchas agencias y cargas de trabajo nunca serán elegibles para la nube. Las cargas de trabajo más sensibles de la comunidad de inteligencia se ejecutan en redes que no pueden, por ley y por física, conectarse a infraestructura comercial. Estas cargas de trabajo aún necesitan capacidades de IA, y las necesitan desplegadas on-premise.
Los contratos del DoD son reales y significativos. Tampoco son toda la historia. La tendencia en todo el gobierno — EE.UU. y aliados — es hacia una infraestructura de IA diversificada y auto-alojada que ningún proveedor individual controla.
Patrones de Casos de Uso de IA Gubernamental
Análisis de Documentos de Inteligencia
Las agencias de inteligencia procesan millones de documentos anualmente — cables, informes, interceptaciones, inteligencia de fuentes abiertas. La IA puede acelerar el triaje, la extracción de entidades, el mapeo de relaciones y la sumarización. Pero los documentos son clasificados, los métodos de análisis son clasificados, y los productos de inteligencia resultantes son clasificados.
Requisitos: inferencia air-gapped, modelos NER ajustados para entidades específicas del gobierno, datos que no salgan del SCIF, registro completo de auditoría de cada documento procesado y cada anotación generada por IA.
Optimización Logística
El Departamento de Defensa gestiona la red logística más grande del mundo. Los modelos predictivos para interrupciones de la cadena de suministro, programación de mantenimiento y asignación de recursos pueden ahorrar miles de millones anualmente. Los datos subyacentes — preparación de unidades, estado del equipo, dependencias de la cadena de suministro — son operacionalmente sensibles.
Requisitos: entrenamiento on-premise con datos logísticos históricos, inferencia en tiempo real para herramientas de planificación, integración con sistemas logísticos existentes (GCSS-Army, sistemas DLA), sin dependencia de la nube para planificación operacional.
Mantenimiento Predictivo para Sistemas de Defensa
El equipo militar genera volúmenes masivos de datos de sensores. Los modelos de IA que predicen fallas de componentes antes de que ocurran pueden reducir el tiempo de inactividad y prevenir fallas críticas para la misión. Los datos de sensores, los modos de falla y los patrones de mantenimiento de los sistemas militares están controlados por exportación bajo ITAR.
Requisitos: entrenamiento de modelos on-premise con datos protegidos por ITAR, inferencia en el borde para unidades desplegadas en el frente (modelos pequeños en hardware ruggedizado), actualizaciones periódicas de modelos mediante transferencia segura.
Análisis de Imágenes Satelitales
La inteligencia geoespacial (GEOINT) implica analizar imágenes satelitales y aéreas para detección de cambios, identificación de objetos y análisis de patrones. Las imágenes en sí a menudo son clasificadas, y las técnicas de análisis revelan capacidades de recolección.
Requisitos: modelos de visión por computadora on-premise, inferencia acelerada por GPU para procesamiento de imágenes, modelos de detección de objetos ajustados para objetivos específicos militares, operación air-gapped.
El Desafío de la Preparación de Datos
Este es el problema que la mayoría de las discusiones sobre infraestructura de IA omiten por completo: las organizaciones gubernamentales tienen décadas de documentos no estructurados acumulados, y casi nada de ello está listo para IA.
Considera lo que una agencia de defensa típica tiene almacenado:
- Informes de inteligencia: Millones de documentos de texto en varios formatos (PDF, Word, texto plano, imágenes escaneadas), que abarcan décadas, con formato inconsistente y marcas de clasificación
- Manuales técnicos: Miles de manuales de mantenimiento de equipos, procedimientos operativos y especificaciones de ingeniería — muchos escaneados de originales en papel
- Informes post-acción: Informes de campo, lecciones aprendidas, análisis de incidentes — texto narrativo no estructurado con datos embebidos
- Contratos y documentos de adquisición: Registros de adquisiciones, evaluaciones de proveedores, análisis de costos — datos estructurados atrapados en formatos no estructurados
Convertir este archivo en datasets listos para IA requiere:
- Ingesta de documentos que maneje docenas de formatos de archivo, OCR para documentos escaneados, y extracción de tablas de PDFs
- Limpieza de datos para normalizar el formato, resolver errores de OCR, y manejar marcas de clasificación
- Anotación y etiquetado por expertos del dominio (analistas, ingenieros, operadores) que entienden el contenido — no por ingenieros de ML que no lo entienden
- Validación de calidad para asegurar que los datos etiquetados cumplan umbrales de precisión antes de usarse para entrenamiento
- Registro completo de auditoría documentando cada transformación, cada decisión humana, y cada ruta de linaje de datos
Todo este pipeline debe ejecutarse en la red clasificada. Sin herramientas en la nube. Sin plataformas SaaS. Sin datos que salgan del edificio.
La mayoría de los programas de IA gubernamentales descubren esto por las malas. Presupuestan para GPUs y servidores de inferencia, luego pasan 12–18 meses construyendo pipelines personalizados de preparación de datos antes de poder entrenar su primer modelo. El 60–80% del tiempo de proyecto de ML dedicado a la preparación de datos que citan los analistas de la industria es, en todo caso, una subestimación para contextos gubernamentales donde los requisitos de cumplimiento agregan carga adicional a cada paso.
Qué Requiere la Preparación de Datos Gubernamentales
| Requisito | Por Qué Importa | Brecha de Herramientas Comerciales |
|---|---|---|
| Operación air-gapped | Los datos clasificados no pueden tocar internet | La mayoría de las herramientas de preparación de datos se conectan a servidores para licencias o actualizaciones |
| Ingesta multi-formato | Los archivos gubernamentales contienen PDFs, escaneos, Word, XML, formatos legacy | Las herramientas típicamente manejan un subconjunto |
| Acceso para expertos del dominio | Los analistas y operadores tienen el conocimiento necesario para el etiquetado | La mayoría de las herramientas requieren experiencia en Python/CLI |
| Registro de auditoría | NIST 800-53, AI RMF, requisitos específicos de la agencia | Los stacks de herramientas fragmentados tienen brechas de linaje |
| Manejo de clasificación | Los documentos tienen niveles mixtos de clasificación | Ninguna herramienta comercial maneja esto nativamente |
| Escala | Las agencias tienen terabytes de documentos históricos | Los enfoques manuales no escalan |
La infraestructura para ejecutar modelos está bien entendida. NVIDIA publica arquitecturas de referencia, los OEMs venden configuraciones validadas, y los contratistas con habilitación pueden instalarlas y mantenerlas. La infraestructura para preparar datos para esos modelos — especialmente en entornos air-gapped y clasificados — es donde la mayoría de los programas se estancan.
Construir vs. Comprar Infraestructura de IA Gubernamental
Las agencias gubernamentales enfrentan una decisión de construir vs. comprar en cada capa del stack de IA:
Infraestructura de cómputo: Comprar. Los diseños validados de NVIDIA a través de Dell, HPE, Lenovo y otros OEMs con contratos gubernamentales existentes proporcionan configuraciones probadas. Construir clústeres GPU personalizados desde cero agrega 6–12 meses e introduce combinaciones de hardware no validadas.
Servicio de inferencia: Mayormente open source. vLLM, TGI y Triton son de grado producción, bien documentados y gratuitos. El endurecimiento específico para gobierno y la documentación ATO es el trabajo personalizado.
Modelos: Comenzar con modelos base de pesos abiertos (Llama, Mistral, Phi), luego ajustar con datos del dominio. Construir modelos fundacionales desde cero es un esfuerzo de laboratorio nacional, no un proyecto de agencia.
Preparación de datos: Aquí es donde la brecha es más amplia. Las agencias o ensamblan 5–7 herramientas open-source con scripts Python personalizados (sin registro de auditoría unificado, meses de ingeniería) o buscan plataformas integradas que puedan ejecutarse completamente on-premise sin dependencias de red.
Recomendaciones para Gerentes de Programas de IA Gubernamentales
-
Comienza con los datos, no con el cómputo. Audita qué datos no estructurados tienes, en qué formato están, y qué tomaría convertirlos en datasets listos para entrenamiento. Esta evaluación debe ocurrir antes de ordenar GPUs.
-
Exige pruebas de operación air-gapped. Para cualquier herramienta en tu stack de IA, desconéctala de la red y verifica que aún funcione. Muchas herramientas "on-premise" dependen silenciosamente de servicios externos para licencias, descargas de modelos o telemetría.
-
Planifica la participación de expertos del dominio. Tus analistas, operadores e ingenieros necesitan participar en el etiquetado y validación de datos. Si una herramienta requiere experiencia en Python para usarse, tus expertos del dominio quedan excluidos y tus ingenieros de ML se convierten en el cuello de botella.
-
Presupuesta 60–70% de tu programa de IA para preparación de datos. El error común es presupuestar 80% para cómputo y 20% para todo lo demás. Invierte esa proporción durante los primeros 18 meses.
-
Construye para múltiples formatos de salida. El mismo dataset preparado debe servir para fine-tuning (JSONL), generación aumentada por recuperación (texto segmentado) y analítica (exportaciones estructuradas). No construyas pipelines separados para cada uno.
-
Establece gobernanza de modelos desde el día uno. Versiona cada modelo, registra cada inferencia, documenta cada ejecución de entrenamiento. El proceso ATO requerirá esta documentación, y agregarla después es más difícil que construirla desde el inicio.
-
Planifica para actualizaciones desconectadas. Los modelos necesitarán reentrenamiento a medida que tus datos evolucionen. Construye un proceso para actualizaciones periódicas de modelos que funcione dentro de tu perímetro de seguridad — incluyendo cómo se transfieren nuevos modelos base y cómo se validan los modelos ajustados antes del despliegue.
La IA gubernamental no es un problema de tecnología. La tecnología existe. Es un problema de infraestructura y proceso — llevar las herramientas correctas a los entornos correctos, con la postura de cumplimiento correcta, operadas por las personas correctas. Las agencias que resuelvan primero el cuello de botella de preparación de datos serán las que realmente desplieguen IA a escala.
Turn unstructured data into AI-ready datasets — without it leaving the building.
On-premise data preparation with full audit trail. No data egress. No fragmented toolchains. EU AI Act Article 30 compliance built in.
Keep reading

AI Data Preparation for Government Agencies: Security Classifications and Air-Gapped Requirements
How government and defense agencies can prepare classified and sensitive data for AI model training in air-gapped environments — covering CMMC, FedRAMP, ITAR, and security classification handling.

How to Build an Air-Gapped AI Pipeline for Regulated Industries
A decision-stage technical guide to building an AI pipeline with zero internet connectivity. Covers pipeline architecture at each stage — data ingestion, cleaning, labeling, augmentation, and export — with hardware requirements, tool comparisons, and transfer mechanisms for air-gapped environments.

Disconnected AI Operations: Running Enterprise AI Without Internet Connectivity
A technical guide to operating AI systems in disconnected environments — from intermittently connected remote sites to fully air-gapped installations. Covers architecture patterns, model management, licensing pitfalls, and the tools that actually work offline.