
IA compatible con GDPR: Cómo usar LLMs sin compartir datos de usuarios
Las APIs de LLM en la nube crean riesgos de procesamiento de datos bajo GDPR. Aprende cómo construir funcionalidades de IA que cumplan con las regulaciones europeas de privacidad usando modelos ajustados locales.
Para usar LLMs de forma compatible con GDPR, ejecuta modelos ajustados localmente en tu propia infraestructura para que los datos de usuario nunca salgan de tu red — esto elimina la necesidad de Acuerdos de Procesamiento de Datos con terceros, evaluaciones de transferencia internacional y gestión compleja de subprocesadores. Según el Comité Europeo de Protección de Datos, cada llamada a una API que transmite datos personales a un LLM en la nube constituye procesamiento de datos bajo el Artículo 28 del GDPR, activando una cascada de obligaciones de cumplimiento. La aplicación del GDPR es significativa: el rastreador de multas GDPR de DLA Piper reporta que las multas acumuladas del GDPR superaron los EUR 4.5 mil millones a principios de 2025, con las violaciones de transferencia de datos entre las mayores sanciones.
Esta guía explica los riesgos específicos del GDPR con las APIs de IA en la nube, lo que realmente requiere el cumplimiento, y cómo la inferencia local con modelos ajustados resuelve el problema de raíz.
El problema con la IA en la nube y el GDPR
Cada llamada a API es procesamiento de datos
Bajo GDPR, enviar datos personales a una API de terceros constituye procesamiento de datos. Cuando tu aplicación envía el texto de un usuario a un endpoint LLM, has transmitido datos personales (o potencialmente personales) a un procesador. Esto activa varias obligaciones:
- Acuerdo de Procesamiento de Datos (DPA) — necesitas un acuerdo legalmente vinculante con el proveedor de API que cubra cómo procesan los datos, períodos de retención y procedimientos de notificación de brechas.
- Base legal — necesitas una base legal válida para este procesamiento (consentimiento, interés legítimo o necesidad contractual).
- Minimización de datos — solo debes enviar los datos mínimos necesarios para el propósito del procesamiento.
- Derecho al borrado — si un usuario solicita la eliminación, necesitas asegurar que el proveedor de API también elimine cualquier dato retenido.
- Salvaguardas de transferencia — si el proveedor de API procesa datos fuera de la UE/EEE, necesitas Cláusulas Contractuales Tipo u otro mecanismo de transferencia.
Donde se complica
Los términos de servicio de la mayoría de los proveedores de IA en la nube están escritos para darles amplia libertad con los datos enviados. Incluso cuando prometen no usar tus datos para entrenamiento, los datos aún:
- Transitan por su infraestructura de red
- Se procesan en sus servidores (potencialmente en diferentes jurisdicciones)
- Pueden ser registrados para detección de abuso, depuración o monitoreo de seguridad
- Podrían estar sujetos a solicitudes gubernamentales de acceso a datos en la jurisdicción del proveedor
Para aplicaciones que manejan categorías sensibles de datos personales — información de salud, datos financieros, datos biométricos — los riesgos se multiplican. El Artículo 9 del GDPR impone restricciones adicionales al procesamiento de categorías especiales de datos, y la mayoría de los DPA de IA en la nube no proporcionan las salvaguardas específicas requeridas.
Lo que realmente requiere el cumplimiento del GDPR
Para APIs de IA en la nube
Si decides usar APIs de IA en la nube con datos personales, necesitas como mínimo:
- Un DPA compatible con el proveedor de API que especifique los propósitos de procesamiento, categorías de datos, períodos de retención y listas de subprocesadores
- Una Evaluación de Impacto de Protección de Datos (DPIA) — requerida bajo el Artículo 35 cuando es probable que el procesamiento resulte en alto riesgo para los individuos
- Avisos de privacidad actualizados — informando a los usuarios que sus datos son procesados por el proveedor de IA
- Evaluaciones de impacto de transferencia — si los datos salen de la UE/EEE
- Medidas técnicas — cifrado en tránsito, controles de acceso, minimización de datos
- Registros de actividades de procesamiento — documentando el procesamiento de IA en tus registros del Artículo 30
Esto es alcanzable pero crea una carga de cumplimiento continua. Cada cambio en los términos del proveedor de API, lista de subprocesadores o ubicaciones de centros de datos requiere revisión.
Para inferencia local
Cuando el modelo corre en tu infraestructura y los datos nunca salen de tu red:
- Sin procesador tercero — no se necesita DPA para inferencia de IA (eres el responsable y el procesador)
- Sin transferencias internacionales de datos — los datos permanecen en tu infraestructura
- Control total sobre la retención — elimina datos en tus propios términos
- DPIA simplificada — perfil de riesgo más bajo cuando los datos no salen de tu perímetro
- Avisos de privacidad más simples — sin necesidad de divulgar procesamiento de IA por terceros
Esto no elimina las obligaciones del GDPR — todavía necesitas una base legal para el procesamiento, debes respetar los derechos de los titulares de datos e implementar medidas de seguridad apropiadas. Pero elimina toda una categoría de complejidad de cumplimiento.
El enfoque de inferencia local
Arquitectura
User → Your Application → Local Model → Response
(your infrastructure — data never leaves)
Compara con el enfoque en la nube:
User → Your Application → Cloud API → Response
(data crosses organizational and possibly jurisdictional boundaries)
Cómo implementar
- Ajusta un modelo con tus datos de dominio — el modelo aprende tu tarea sin necesitar recuperar datos personales en el momento de la inferencia
- Exporta como GGUF — un formato portátil que corre en hardware estándar
- Despliega en tu infraestructura — tus servidores, tu VPC o tu hardware on-prem
- Sirve localmente — usa Ollama, llama.cpp o vLLM como motor de inferencia
El paso de fine-tuning ocurre una vez (o periódicamente a medida que mejoras el modelo). Toda la inferencia subsecuente es completamente local.
¿Qué pasa con los datos de entrenamiento?
Fine-tuning en sí mismo involucra procesamiento de datos. Si usas datos personales para entrenamiento, necesitas:
- Una base legal para usar esos datos para entrenar un modelo
- Que los datos estén apropiadamente desidentificados donde sea posible
- Una DPIA que cubra el proceso de entrenamiento
- Políticas de retención apropiadas para los datos de entrenamiento
Con Ertas, fine-tuning se ejecuta en GPUs gestionadas en la nube pero el manejo de datos de entrenamiento se rige por un DPA. Una vez que el entrenamiento está completo, los pesos del modelo (que no contienen datos personales recuperables) se exportan como GGUF para despliegue local.
Lista de verificación práctica de cumplimiento
Antes de construir
- Determinar si tu funcionalidad de IA procesará datos personales
- Identificar la base legal para el procesamiento
- Decidir entre API en la nube e inferencia local basándote en la evaluación de riesgo
- Completar una DPIA si el procesamiento es de alto riesgo
Para despliegue local
- Ajustar un modelo con datos apropiadamente desidentificados
- Desplegar el modelo dentro de tu perímetro de infraestructura
- Implementar controles de acceso en el endpoint de inferencia
- Registrar las solicitudes de inferencia para tus propios propósitos de auditoría
- Documentar el procesamiento en tus registros del Artículo 30
- Actualizar los avisos de privacidad para reflejar el procesamiento asistido por IA (sin necesidad de divulgar terceros)
Para API en la nube (si es inevitable)
- Ejecutar un DPA con el proveedor de API
- Verificar la lista de subprocesadores y ubicaciones de centros de datos
- Implementar minimización de datos — eliminar datos personales innecesarios antes de las llamadas a API
- Completar una evaluación de impacto de transferencia si los datos salen de la UE/EEE
- Actualizar los avisos de privacidad para divulgar el procesador de IA
- Establecer un proceso para manejar solicitudes de acceso/eliminación de titulares de datos tanto en tus sistemas como en el proveedor de API
Más allá del GDPR
Los mismos principios se aplican a otras regulaciones de privacidad:
| Regulación | Preocupación principal sobre IA | Beneficio de la inferencia local |
|---|---|---|
| GDPR (UE) | Procesamiento de datos por terceros, transferencias internacionales | Elimina la relación con procesadores |
| UK GDPR | Igual que GDPR, mecanismos de transferencia post-Brexit | Los datos permanecen en la jurisdicción |
| CCPA/CPRA (California) | "Venta" de información personal, obligaciones de proveedores de servicio | Sin compartir datos con proveedores de servicio |
| HIPAA (Salud EE.UU.) | Divulgación de PHI a socios comerciales | PHI nunca sale de la entidad cubierta |
| PIPEDA (Canadá) | Consentimiento para divulgación, responsabilidad | Sin divulgación transfronteriza |
| LGPD (Brasil) | Transferencia internacional de datos, base legal | Los datos permanecen en la jurisdicción |
La inferencia local no solo resuelve el cumplimiento del GDPR — simplifica el cumplimiento con prácticamente todas las regulaciones de privacidad al eliminar por completo el flujo de datos a terceros.
Cómo ayuda Ertas
Ertas proporciona la infraestructura de entrenamiento para crear modelos ajustados que luego despliegas localmente:
- Studio — ajusta modelos en GPUs gestionadas en la nube con una interfaz visual
- Vault — almacenamiento cifrado de nivel empresarial con pistas de auditoría para datos de entrenamiento
- Exportación GGUF — descarga tu modelo para despliegue en cualquier infraestructura local
La fase de entrenamiento usa la nube de Ertas. La fase de inferencia es completamente tuya. Esta separación significa que obtienes la conveniencia de la nube para el paso de entrenamiento computacionalmente costoso mientras mantienes el control total de datos donde más importa — en el momento de la inferencia, cuando se procesan datos reales de usuarios.
Asegura el precio de early bird a $14.50/mes de por vida — aumenta a $34.50/mes en el lanzamiento. Únete a la lista de espera →
Preguntas frecuentes
¿Es compatible con GDPR usar ChatGPT?
Usar ChatGPT o APIs de LLM en la nube similares con datos personales no es automáticamente compatible con GDPR. Cada llamada a API que incluye datos personales constituye procesamiento de datos bajo GDPR, requiriendo un Acuerdo de Procesamiento de Datos con el proveedor, una base legal válida, una Evaluación de Impacto de Protección de Datos para procesamiento de alto riesgo y avisos de privacidad actualizados. OpenAI ofrece un DPA y controles de procesamiento de datos para clientes empresariales, pero la carga de cumplimiento recae en ti como responsable de datos para asegurar que se cumplan todos los requisitos — incluyendo salvaguardas de transferencia internacional de datos si los datos se procesan fuera de la UE/EEE.
¿Puedo ajustar modelos de IA con datos personales bajo GDPR?
Sí, pero necesitas una base legal para usar datos personales como datos de entrenamiento (como interés legítimo o consentimiento), debes desidentificar los datos donde sea posible, y debes completar una DPIA que cubra el proceso de entrenamiento. Los pesos del modelo resultante no contienen datos personales recuperables, por lo que el modelo ajustado en sí puede desplegarse sin las mismas preocupaciones de procesamiento. Si usas un servicio en la nube para fine-tuning, también necesitas un DPA con ese proveedor que cubra la fase de entrenamiento.
¿Qué artículo del GDPR se aplica al procesamiento de IA?
Varios artículos del GDPR son relevantes para la IA. El Artículo 28 gobierna la relación responsable-procesador (relevante al usar APIs de IA de terceros). El Artículo 35 requiere Evaluaciones de Impacto de Protección de Datos para procesamiento de alto riesgo, para lo cual la IA típicamente califica. El Artículo 22 restringe la toma de decisiones automatizada que afecta significativamente a los individuos. Los Artículos 44-49 gobiernan las transferencias internacionales de datos, críticos cuando los proveedores de IA procesan datos fuera de la UE/EEE. El Artículo 9 agrega protecciones extra para categorías especiales de datos (salud, biométricos) que los sistemas de IA a menudo manejan.
¿Cómo funcionan las multas del GDPR por violaciones de IA?
Las multas del GDPR pueden alcanzar hasta EUR 20 millones o el 4% de la facturación global anual, lo que sea mayor. Según la Encuesta de Multas GDPR de DLA Piper, las multas acumuladas superaron los EUR 4.5 mil millones a principios de 2025. Las violaciones de transferencia de datos han atraído algunas de las mayores sanciones — Meta fue multada con EUR 1.2 mil millones en 2023 por transferir datos de usuarios de la UE a EE.UU. A medida que aumenta la regulación de IA bajo el EU AI Act, se espera que la aplicación alrededor del procesamiento de datos específico de IA se intensifique.
Lectura adicional
- Desarrollo de IA con conciencia de privacidad — el argumento más amplio a favor de la IA con privacidad primero
- Ejecutar modelos de IA localmente — hardware, herramientas y opciones de despliegue
- El costo oculto del precio por token de IA — el argumento económico para la inferencia local
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.
Keep reading

GDPR + EU AI Act: Double Compliance for AI Training Data
How enterprises must navigate both GDPR and EU AI Act requirements simultaneously when preparing AI training data — covering data minimization, consent, and the tension between privacy and AI needs.

Fine-Tuning and Safety Alignment: What You Need to Know Before Deploying
Understanding how fine-tuning affects model safety — why alignment can degrade during training, how to maintain safety guardrails, and practical testing strategies for production deployments.

HIPAA, GDPR, and OpenClaw: A Compliance Guide for Regulated Industries
OpenClaw in healthcare, legal, or finance is a compliance minefield when using cloud APIs. Here's how to map the data flows, identify risks, and deploy compliantly with local models.