Back to blog
    IA compatible con GDPR: Cómo usar LLMs sin compartir datos de usuarios
    gdprprivacycompliancelocal-inferencedata-protection

    IA compatible con GDPR: Cómo usar LLMs sin compartir datos de usuarios

    Las APIs de LLM en la nube crean riesgos de procesamiento de datos bajo GDPR. Aprende cómo construir funcionalidades de IA que cumplan con las regulaciones europeas de privacidad usando modelos ajustados locales.

    EEdward Yang··Updated

    Para usar LLMs de forma compatible con GDPR, ejecuta modelos ajustados localmente en tu propia infraestructura para que los datos de usuario nunca salgan de tu red — esto elimina la necesidad de Acuerdos de Procesamiento de Datos con terceros, evaluaciones de transferencia internacional y gestión compleja de subprocesadores. Según el Comité Europeo de Protección de Datos, cada llamada a una API que transmite datos personales a un LLM en la nube constituye procesamiento de datos bajo el Artículo 28 del GDPR, activando una cascada de obligaciones de cumplimiento. La aplicación del GDPR es significativa: el rastreador de multas GDPR de DLA Piper reporta que las multas acumuladas del GDPR superaron los EUR 4.5 mil millones a principios de 2025, con las violaciones de transferencia de datos entre las mayores sanciones.

    Esta guía explica los riesgos específicos del GDPR con las APIs de IA en la nube, lo que realmente requiere el cumplimiento, y cómo la inferencia local con modelos ajustados resuelve el problema de raíz.

    El problema con la IA en la nube y el GDPR

    Cada llamada a API es procesamiento de datos

    Bajo GDPR, enviar datos personales a una API de terceros constituye procesamiento de datos. Cuando tu aplicación envía el texto de un usuario a un endpoint LLM, has transmitido datos personales (o potencialmente personales) a un procesador. Esto activa varias obligaciones:

    • Acuerdo de Procesamiento de Datos (DPA) — necesitas un acuerdo legalmente vinculante con el proveedor de API que cubra cómo procesan los datos, períodos de retención y procedimientos de notificación de brechas.
    • Base legal — necesitas una base legal válida para este procesamiento (consentimiento, interés legítimo o necesidad contractual).
    • Minimización de datos — solo debes enviar los datos mínimos necesarios para el propósito del procesamiento.
    • Derecho al borrado — si un usuario solicita la eliminación, necesitas asegurar que el proveedor de API también elimine cualquier dato retenido.
    • Salvaguardas de transferencia — si el proveedor de API procesa datos fuera de la UE/EEE, necesitas Cláusulas Contractuales Tipo u otro mecanismo de transferencia.

    Donde se complica

    Los términos de servicio de la mayoría de los proveedores de IA en la nube están escritos para darles amplia libertad con los datos enviados. Incluso cuando prometen no usar tus datos para entrenamiento, los datos aún:

    • Transitan por su infraestructura de red
    • Se procesan en sus servidores (potencialmente en diferentes jurisdicciones)
    • Pueden ser registrados para detección de abuso, depuración o monitoreo de seguridad
    • Podrían estar sujetos a solicitudes gubernamentales de acceso a datos en la jurisdicción del proveedor

    Para aplicaciones que manejan categorías sensibles de datos personales — información de salud, datos financieros, datos biométricos — los riesgos se multiplican. El Artículo 9 del GDPR impone restricciones adicionales al procesamiento de categorías especiales de datos, y la mayoría de los DPA de IA en la nube no proporcionan las salvaguardas específicas requeridas.

    Lo que realmente requiere el cumplimiento del GDPR

    Para APIs de IA en la nube

    Si decides usar APIs de IA en la nube con datos personales, necesitas como mínimo:

    1. Un DPA compatible con el proveedor de API que especifique los propósitos de procesamiento, categorías de datos, períodos de retención y listas de subprocesadores
    2. Una Evaluación de Impacto de Protección de Datos (DPIA) — requerida bajo el Artículo 35 cuando es probable que el procesamiento resulte en alto riesgo para los individuos
    3. Avisos de privacidad actualizados — informando a los usuarios que sus datos son procesados por el proveedor de IA
    4. Evaluaciones de impacto de transferencia — si los datos salen de la UE/EEE
    5. Medidas técnicas — cifrado en tránsito, controles de acceso, minimización de datos
    6. Registros de actividades de procesamiento — documentando el procesamiento de IA en tus registros del Artículo 30

    Esto es alcanzable pero crea una carga de cumplimiento continua. Cada cambio en los términos del proveedor de API, lista de subprocesadores o ubicaciones de centros de datos requiere revisión.

    Para inferencia local

    Cuando el modelo corre en tu infraestructura y los datos nunca salen de tu red:

    • Sin procesador tercero — no se necesita DPA para inferencia de IA (eres el responsable y el procesador)
    • Sin transferencias internacionales de datos — los datos permanecen en tu infraestructura
    • Control total sobre la retención — elimina datos en tus propios términos
    • DPIA simplificada — perfil de riesgo más bajo cuando los datos no salen de tu perímetro
    • Avisos de privacidad más simples — sin necesidad de divulgar procesamiento de IA por terceros

    Esto no elimina las obligaciones del GDPR — todavía necesitas una base legal para el procesamiento, debes respetar los derechos de los titulares de datos e implementar medidas de seguridad apropiadas. Pero elimina toda una categoría de complejidad de cumplimiento.

    El enfoque de inferencia local

    Arquitectura

    User → Your Application → Local Model → Response
             (your infrastructure — data never leaves)
    

    Compara con el enfoque en la nube:

    User → Your Application → Cloud API → Response
             (data crosses organizational and possibly jurisdictional boundaries)
    

    Cómo implementar

    1. Ajusta un modelo con tus datos de dominio — el modelo aprende tu tarea sin necesitar recuperar datos personales en el momento de la inferencia
    2. Exporta como GGUF — un formato portátil que corre en hardware estándar
    3. Despliega en tu infraestructura — tus servidores, tu VPC o tu hardware on-prem
    4. Sirve localmente — usa Ollama, llama.cpp o vLLM como motor de inferencia

    El paso de fine-tuning ocurre una vez (o periódicamente a medida que mejoras el modelo). Toda la inferencia subsecuente es completamente local.

    ¿Qué pasa con los datos de entrenamiento?

    Fine-tuning en sí mismo involucra procesamiento de datos. Si usas datos personales para entrenamiento, necesitas:

    • Una base legal para usar esos datos para entrenar un modelo
    • Que los datos estén apropiadamente desidentificados donde sea posible
    • Una DPIA que cubra el proceso de entrenamiento
    • Políticas de retención apropiadas para los datos de entrenamiento

    Con Ertas, fine-tuning se ejecuta en GPUs gestionadas en la nube pero el manejo de datos de entrenamiento se rige por un DPA. Una vez que el entrenamiento está completo, los pesos del modelo (que no contienen datos personales recuperables) se exportan como GGUF para despliegue local.

    Lista de verificación práctica de cumplimiento

    Antes de construir

    • Determinar si tu funcionalidad de IA procesará datos personales
    • Identificar la base legal para el procesamiento
    • Decidir entre API en la nube e inferencia local basándote en la evaluación de riesgo
    • Completar una DPIA si el procesamiento es de alto riesgo

    Para despliegue local

    • Ajustar un modelo con datos apropiadamente desidentificados
    • Desplegar el modelo dentro de tu perímetro de infraestructura
    • Implementar controles de acceso en el endpoint de inferencia
    • Registrar las solicitudes de inferencia para tus propios propósitos de auditoría
    • Documentar el procesamiento en tus registros del Artículo 30
    • Actualizar los avisos de privacidad para reflejar el procesamiento asistido por IA (sin necesidad de divulgar terceros)

    Para API en la nube (si es inevitable)

    • Ejecutar un DPA con el proveedor de API
    • Verificar la lista de subprocesadores y ubicaciones de centros de datos
    • Implementar minimización de datos — eliminar datos personales innecesarios antes de las llamadas a API
    • Completar una evaluación de impacto de transferencia si los datos salen de la UE/EEE
    • Actualizar los avisos de privacidad para divulgar el procesador de IA
    • Establecer un proceso para manejar solicitudes de acceso/eliminación de titulares de datos tanto en tus sistemas como en el proveedor de API

    Más allá del GDPR

    Los mismos principios se aplican a otras regulaciones de privacidad:

    RegulaciónPreocupación principal sobre IABeneficio de la inferencia local
    GDPR (UE)Procesamiento de datos por terceros, transferencias internacionalesElimina la relación con procesadores
    UK GDPRIgual que GDPR, mecanismos de transferencia post-BrexitLos datos permanecen en la jurisdicción
    CCPA/CPRA (California)"Venta" de información personal, obligaciones de proveedores de servicioSin compartir datos con proveedores de servicio
    HIPAA (Salud EE.UU.)Divulgación de PHI a socios comercialesPHI nunca sale de la entidad cubierta
    PIPEDA (Canadá)Consentimiento para divulgación, responsabilidadSin divulgación transfronteriza
    LGPD (Brasil)Transferencia internacional de datos, base legalLos datos permanecen en la jurisdicción

    La inferencia local no solo resuelve el cumplimiento del GDPR — simplifica el cumplimiento con prácticamente todas las regulaciones de privacidad al eliminar por completo el flujo de datos a terceros.

    Cómo ayuda Ertas

    Ertas proporciona la infraestructura de entrenamiento para crear modelos ajustados que luego despliegas localmente:

    • Studio — ajusta modelos en GPUs gestionadas en la nube con una interfaz visual
    • Vault — almacenamiento cifrado de nivel empresarial con pistas de auditoría para datos de entrenamiento
    • Exportación GGUF — descarga tu modelo para despliegue en cualquier infraestructura local

    La fase de entrenamiento usa la nube de Ertas. La fase de inferencia es completamente tuya. Esta separación significa que obtienes la conveniencia de la nube para el paso de entrenamiento computacionalmente costoso mientras mantienes el control total de datos donde más importa — en el momento de la inferencia, cuando se procesan datos reales de usuarios.

    Asegura el precio de early bird a $14.50/mes de por vida — aumenta a $34.50/mes en el lanzamiento. Únete a la lista de espera →

    Preguntas frecuentes

    ¿Es compatible con GDPR usar ChatGPT?

    Usar ChatGPT o APIs de LLM en la nube similares con datos personales no es automáticamente compatible con GDPR. Cada llamada a API que incluye datos personales constituye procesamiento de datos bajo GDPR, requiriendo un Acuerdo de Procesamiento de Datos con el proveedor, una base legal válida, una Evaluación de Impacto de Protección de Datos para procesamiento de alto riesgo y avisos de privacidad actualizados. OpenAI ofrece un DPA y controles de procesamiento de datos para clientes empresariales, pero la carga de cumplimiento recae en ti como responsable de datos para asegurar que se cumplan todos los requisitos — incluyendo salvaguardas de transferencia internacional de datos si los datos se procesan fuera de la UE/EEE.

    ¿Puedo ajustar modelos de IA con datos personales bajo GDPR?

    Sí, pero necesitas una base legal para usar datos personales como datos de entrenamiento (como interés legítimo o consentimiento), debes desidentificar los datos donde sea posible, y debes completar una DPIA que cubra el proceso de entrenamiento. Los pesos del modelo resultante no contienen datos personales recuperables, por lo que el modelo ajustado en sí puede desplegarse sin las mismas preocupaciones de procesamiento. Si usas un servicio en la nube para fine-tuning, también necesitas un DPA con ese proveedor que cubra la fase de entrenamiento.

    ¿Qué artículo del GDPR se aplica al procesamiento de IA?

    Varios artículos del GDPR son relevantes para la IA. El Artículo 28 gobierna la relación responsable-procesador (relevante al usar APIs de IA de terceros). El Artículo 35 requiere Evaluaciones de Impacto de Protección de Datos para procesamiento de alto riesgo, para lo cual la IA típicamente califica. El Artículo 22 restringe la toma de decisiones automatizada que afecta significativamente a los individuos. Los Artículos 44-49 gobiernan las transferencias internacionales de datos, críticos cuando los proveedores de IA procesan datos fuera de la UE/EEE. El Artículo 9 agrega protecciones extra para categorías especiales de datos (salud, biométricos) que los sistemas de IA a menudo manejan.

    ¿Cómo funcionan las multas del GDPR por violaciones de IA?

    Las multas del GDPR pueden alcanzar hasta EUR 20 millones o el 4% de la facturación global anual, lo que sea mayor. Según la Encuesta de Multas GDPR de DLA Piper, las multas acumuladas superaron los EUR 4.5 mil millones a principios de 2025. Las violaciones de transferencia de datos han atraído algunas de las mayores sanciones — Meta fue multada con EUR 1.2 mil millones en 2023 por transferir datos de usuarios de la UE a EE.UU. A medida que aumenta la regulación de IA bajo el EU AI Act, se espera que la aplicación alrededor del procesamiento de datos específico de IA se intensifique.

    Lectura adicional

    Ship AI that runs on your users' devices.

    Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.

    Keep reading