
Por Qué Algunas Organizaciones Nunca Podrán Usar OpenAI — y Qué Usan en Su Lugar
Para algunas empresas, la pregunta no es si usar OpenAI sino si legalmente pueden. Estas son las organizaciones que están estructuralmente excluidas y qué infraestructura de AI usan en su lugar.
La conversación actual de la industria sobre la dirección estratégica de OpenAI, las decisiones de Anthropic y el riesgo de proveedores de AI empresarial presupone algo que no es cierto para todos: que puedes elegir.
Un segmento significativo de empresas — agencias gubernamentales, sistemas clínicos, operadores industriales, ciertas instituciones financieras, funciones de inteligencia competitiva — no tiene capacidad legal o estructural para usar proveedores de AI en la nube. No por preferencia. No por precio. Por arquitectura, requisitos de clasificación, mandato regulatorio o diseño operacional que antecede a la AI por completo.
Para estas organizaciones, la pregunta no es qué proveedor de AI usar. Es cómo construir infraestructura de AI capaz sin ninguna dependencia de API externa en absoluto.
Categoría 1: Entornos Clasificados y Regulados por ITAR
La exclusión más absoluta es la clasificación. Los sistemas que operan a ciertos niveles de clasificación en entornos gubernamentales y de defensa — aquellos que manejan información clasificada de seguridad nacional — no pueden interactuar con servicios comerciales en la nube. Punto.
Esta no es una elección de política que pueda dispensarse para un proveedor suficientemente capaz. Es un requisito arquitectónico. Las redes clasificadas están físicamente separadas de la infraestructura no clasificada. Las llamadas de API a OpenAI, Anthropic, Google o cualquier proveedor comercial no son posibles porque la ruta de red no existe y no puede crearse sin violar los requisitos de clasificación del sistema.
Las Regulaciones de Tráfico Internacional de Armas (ITAR) crean una restricción relacionada para contratistas de defensa y fabricantes que trabajan con datos técnicos controlados. La tecnología controlada por ITAR no puede procesarse en infraestructura comercial en la nube sin autorización específica de exportación — autorización que típicamente no está disponible para sistemas operacionales. Los contratistas principales de defensa, fabricantes aeroespaciales y ciertas instituciones de investigación que trabajan con datos ITAR enfrentan una prohibición efectiva de AI comercial en la nube para datos que tocan áreas técnicas controladas.
La infraestructura de AI en estos entornos: inferencia local, típicamente en hardware gestionado por el gobierno o por contratistas, usando modelos desarrollados específicamente para uso clasificado o modelos open-source ajustados aprobados a través de procesos de revisión de seguridad relevantes.
Categoría 2: Sistemas Industriales Air-Gapped
Las redes de tecnología operacional (OT) en manufactura, generación de energía, tratamiento de aguas y otra infraestructura crítica están intencionalmente desconectadas de internet. Esta no es una omisión legacy — es una decisión deliberada de arquitectura de seguridad, reforzada por la guía de CISA, estándares IEC 62443 y regulaciones específicas del sector.
Un sistema de AI que requiere conectividad a internet para funcionar no puede desplegarse en estos entornos. Una estación compresora de gas natural, los sistemas de control de una planta nuclear, la red SCADA de una instalación de tratamiento de agua — estos sistemas son air-gapped por diseño. Cualquier AI que soporte operaciones en estos entornos corre localmente, en hardware en la red OT, sin dependencias externas.
Los casos de uso para AI en entornos OT industriales son reales y crecientes: mantenimiento predictivo en datos de sensores de equipos, detección de anomalías en control de procesos, asistencia de documentación para operadores, análisis de datos históricos. Todo tiene que correr en infraestructura local porque es la única infraestructura disponible.
Categoría 3: Entornos de Salud Restringidos
La relación de la salud con la conectividad de AI es más matizada que las exclusiones absolutas en las categorías 1 y 2, pero un subconjunto significativo de entornos clínicos tiene restricciones de conectividad que efectivamente excluyen la AI comercial en la nube.
Algunos sistemas de información clínica operan en redes aisladas específicamente por razones de ciberseguridad — una respuesta a la ola de ataques de ransomware a la infraestructura de salud a principios de los 2020s que causaron daño a pacientes. Las redes clínicas aisladas no pueden hacer llamadas externas de API más de lo que pueden las redes clasificadas.
Ciertos sistemas gubernamentales de salud — algunas instalaciones médicas militares, algunos entornos de servicio nacional de salud en países con requisitos estrictos de soberanía de datos — tienen restricciones explícitas sobre enviar datos de pacientes a proveedores comerciales en la nube. El NHS en el Reino Unido, los sistemas de salud pública en Alemania y Francia, y los sistemas médicos de defensa en múltiples países tienen diversos grados de restricción sobre el uso de AI comercial en la nube para datos de pacientes.
Para estos entornos, AI que funciona significa AI que corre en la red clínica. Sin excepciones basadas en la capacidad del proveedor o protecciones contractuales.
Categoría 4: Sistemas Financieros con Requisitos de Localización de Datos
No todas las exclusiones de AI financiera son absolutas, pero algunas lo son. Los países con requisitos estrictos de localización de datos — que requieren que los datos financieros se procesen en infraestructura físicamente ubicada dentro de sus fronteras — efectivamente prohíben el uso de proveedores de AI en la nube basados en EE.UU. para sistemas que manejan esos datos.
La Ley Federal No. 242-FZ de Rusia requiere que los datos personales de ciudadanos rusos se almacenen en servidores en Rusia. La Ley de Ciberseguridad de China tiene requisitos análogos. Varias otras jurisdicciones han promulgado o están promulgando marcos similares. Los bancos e instituciones financieras que operan en estas jurisdicciones para sistemas que manejan datos regulados no pueden enrutar esos datos a proveedores de AI basados en EE.UU.
El GDPR de la UE no crea una prohibición absoluta pero crea fricción significativa para transferencias a proveedores basados en EE.UU. — fricción que algunas organizaciones han resuelto limitando los datos a procesamiento on-premise o ubicado en la UE.
Para estas organizaciones, la inferencia local no es una preferencia — es la única arquitectura conforme.
Categoría 5: Entornos Legales con Restricciones de Privilegio
La exclusión del sector legal es práctica en lugar de legal, pero la restricción práctica es vinculante.
El privilegio abogado-cliente y la doctrina del producto del trabajo protegen comunicaciones y análisis que se mantienen confidenciales dentro de límites apropiados. La orientación de colegios de abogados en múltiples jurisdicciones ha abordado el uso de AI en la práctica legal, y aunque la orientación varía, un hilo común es que los abogados que usan AI en la nube para trabajo relacionado con casos necesitan poder asegurar la confidencialidad de la información del cliente.
Muchos bufetes de abogados — particularmente en el Am Law 100, bufetes del Magic Circle, y aquellos que manejan asuntos sensibles de fusiones y adquisiciones, litigios o materias regulatorias — tienen políticas que prohíben el uso de plataformas de AI en la nube para trabajo relacionado con casos. La prohibición no se basa en una regla legal específica. Se basa en análisis de riesgo de privilegio y orientación del colegio de abogados que recomienda en contra.
El resultado práctico: los abogados que quieren usar AI para trabajo legal en estos bufetes usan modelos locales en infraestructura gestionada por el bufete, o no usan AI en absoluto para trabajo relacionado con casos.
Categoría 6: Empresas con Sensibilidad Competitiva
Esta categoría no enfrenta una prohibición legal pero ha llegado a la misma conclusión a través de análisis de riesgo: algunos datos son demasiado sensibles competitivamente para enviarlos a cualquier sistema externo.
Asesores de fusiones y adquisiciones trabajando en transacciones no divulgadas. Abogados de patentes con divulgaciones de invenciones de clientes. Contratistas principales de defensa con diseños de sistemas propietarios no cubiertos por ITAR pero aún competitivamente críticos. Gestores de inversiones con datos de estrategias de trading propietarias. Estas organizaciones han determinado que el riesgo de procesar sus datos más sensibles en infraestructura comercial en la nube — incluso con fuertes protecciones contractuales — es inaceptable.
El cálculo no se trata de la confiabilidad del proveedor. Se trata de la superficie de ataque. Los datos procesados en un sistema externo están expuestos a la postura de seguridad de ese sistema, los sistemas de sub-procesadores, y las operaciones de seguridad de todos con acceso administrativo. Para datos donde una brecha sería catastrófica, minimizar la superficie de exposición significa mantener el procesamiento local.
Qué Usan Estas Organizaciones en Su Lugar
El stack local de AI para estas organizaciones tiene los mismos componentes en todas las categorías:
Modelos foundation open-source: Llama 3.3, Qwen 2.5, Mistral y Gemma son modelos foundation capaces disponibles bajo licencias abiertas. Pueden descargarse, revisarse y desplegarse en infraestructura privada sin necesidad de relación continua con un proveedor.
Fine-tuning con datos de dominio: Los modelos de propósito general se especializan en el dominio a través de fine-tuning con datos específicos de la organización — notas clínicas, documentos legales, manuales técnicos, registros financieros. Los modelos de 7B ajustados alcanzan consistentemente 90-95% de precisión en tareas estrechas de dominio, igualando o superando el rendimiento de clase GPT-4 en las tareas específicas que importan.
Infraestructura de inferencia local: Ollama, llama.cpp y vLLM corren on-premise en hardware que va desde estaciones de trabajo de gama alta hasta servidores GPU dedicados. No se requiere conexión a internet para inferencia.
Herramientas de preparación de datos on-premise: Preparar datos para fine-tuning — ingesta, limpieza, etiquetado, aumento, conversión de formato — requiere herramientas. Las herramientas de preparación de datos en la nube no son una opción para estas organizaciones, lo que significa que necesitan soluciones de escritorio o on-premise.
La Arquitectura de Ertas para Organizaciones Excluidas
Ertas Data Suite fue diseñado explícitamente para los casos de exclusión estructural. Es una aplicación de escritorio nativa construida con Tauri 2.0 — no una aplicación web que requiere un servidor, no un servicio en la nube con opción on-premise, sino software de escritorio real que se instala y ejecuta como software empresarial.
El pipeline completo de preparación de datos corre localmente: Ingest, Clean, Label, Augment y Export — el flujo de trabajo completo desde datos crudos hasta un dataset listo para fine-tuning, completamente en la máquina del usuario. Sin egreso de datos. Sin requisito de red. Operación air-gapped como requisito de diseño de primera clase, no como ocurrencia tardía. Rastro de auditoría completo incorporado.
Para el paso de fine-tuning, Ertas Fine-Tuning SaaS proporciona una opción que funciona incluso para algunos de los entornos restringidos: trae tu dataset (que has preparado localmente), súbelo para una ejecución de fine-tuning en GPUs en la nube, descarga los pesos GGUF resultantes, luego corre inferencia completamente localmente. Tus datos solo están en la nube durante la ejecución de entrenamiento, no en almacenamiento persistente, y el modelo resultante corre en tu infraestructura sin dependencia continua de la nube.
Para organizaciones donde incluso ese paso de entrenamiento en la nube no es aceptable — ciertos entornos clasificados, operaciones estrictamente air-gapped — los pesos pueden obtenerse por otros medios: pesos open-source pre-entrenados descargados a través de canales aprobados, ejecución de fine-tuning en infraestructura GPU privada, o adquisición de artefactos de modelos ajustados a través de canales apropiados.
El Punto Más Amplio
Las organizaciones estructuralmente excluidas de la AI comercial en la nube no son casos extremos. Representan una fracción significativa de la actividad económica: gobierno, defensa, salud, servicios financieros, legal y empresa con sensibilidad competitiva. Muchas de ellas han estado esperando que la infraestructura local de AI alcance el nivel de capacidad donde resuelva sus problemas reales.
Ese umbral ha sido cruzado. Un modelo 7B ajustado en un servidor GPU local ya no es un compromiso de capacidad para la mayoría de los casos de uso empresariales de producción. Es una alternativa viable — frecuentemente una mejor para tareas estrechas y bien definidas — que además satisface las restricciones de conectividad, gobernanza de datos y operacionales que estas organizaciones enfrentan.
Las organizaciones que "no pueden usar OpenAI" están descubriendo que no necesitan hacerlo.
Ver precios de acceso anticipado para Ertas Fine-Tuning SaaS →
Agenda una llamada de descubrimiento sobre Ertas Data Suite →
Turn unstructured data into AI-ready datasets — without it leaving the building.
On-premise data preparation with full audit trail. No data egress. No fragmented toolchains. EU AI Act Article 30 compliance built in.
Keep reading

The Case for On-Premise AI in Regulated Industries
For healthcare, legal, finance, and defense, on-premise AI isn't just a preference — it's increasingly a compliance requirement. Here's why cloud AI fails regulated environments.

Why Regulated Industries Need Different AI Infrastructure — Not Just Different Prompts
Regulated industries face AI challenges that can't be solved by better prompt engineering. Healthcare, legal, finance, and defense need fundamentally different infrastructure choices.

AI Model Access Control in Regulated Industries: Who Gets to Query What
Not everyone in your organization should have the same access to the same AI models. Here's how to design role-based access control for AI systems in healthcare, legal, and financial environments.