Back to blog
    Los datos de tu usuario salen de su telefono en cada solicitud de IA
    privacydata securitymobile AIGDPRHIPAAcompliancesegment:mobile-builder

    Los datos de tu usuario salen de su telefono en cada solicitud de IA

    Cada llamada a una API de IA en la nube envia datos del usuario a un servidor de terceros. Que significa eso para la privacidad, el cumplimiento normativo, la confianza del usuario y la viabilidad a largo plazo de tu app.

    EErtas Team·

    Cuando tu app llama a una API de IA, la entrada del usuario se envia a un servidor operado por un tercero. Su mensaje, su pregunta, su texto, su contexto. Sale del dispositivo, cruza internet y llega a infraestructura que no controlas.

    Para una app del clima, esto probablemente esta bien. Para una app de salud, una app de finanzas, una app de notas o cualquier cosa que toque informacion personal, es un problema serio.

    Que se envia realmente

    Una solicitud tipica de API de chat incluye:

    {
      "model": "gpt-4o-mini",
      "messages": [
        {"role": "system", "content": "Eres un asistente de salud..."},
        {"role": "user", "content": "He tenido dolor de pecho por 3 dias..."},
        {"role": "assistant", "content": "...respuesta previa de IA..."},
        {"role": "user", "content": "Deberia ver a un cardiologo?"}
      ]
    }
    

    Esa carga contiene:

    • La preocupacion de salud del usuario (PHI bajo HIPAA)
    • El historial de conversacion (contexto personal acumulado)
    • El prompt del sistema (la logica propietaria de tu app)

    Cada turno de conversacion envia el historial completo. Para el turno 5, la API ha recibido la interaccion completa del usuario, no solo el ultimo mensaje.

    El contexto RAG lo empeora

    Si tu app usa generacion aumentada por recuperacion, la solicitud tambien incluye documentos recuperados. En una app de finanzas, eso podrian ser las transacciones del usuario. En una app legal, detalles confidenciales del caso. En una app de notas, sus notas privadas.

    Cuanto mas contexto proporcionas para respuestas de calidad, mas datos privados transmites.

    Las politicas de privacidad que heredas

    Cuando envias datos de usuarios a un proveedor de IA, aplican sus politicas de manejo de datos:

    OpenAI: A partir de 2026, los datos de API no se usan para entrenamiento de modelos por defecto (debes optar). Pero los datos se retienen por 30 dias para monitoreo de abuso. El personal de OpenAI puede revisar contenido marcado.

    Anthropic: Politica similar. Los datos de API no se usan para entrenamiento. Retenidos para monitoreo de seguridad con posible revision humana de contenido marcado.

    Google Gemini: Para la API de pago (no el producto gratuito de consumidor), los datos no se usan para entrenamiento. Las politicas de retencion varian segun el acuerdo.

    El hilo comun: los datos de tus usuarios residen en servidores de terceros por dias a semanas, potencialmente revisados por humanos que no conoces, bajo politicas que pueden cambiar con unos Terminos de Servicio actualizados.

    El problema de cumplimiento

    HIPAA (Salud)

    Si tu app maneja informacion de salud protegida (PHI), enviarla a un proveedor de IA requiere un Acuerdo de Asociado Comercial (BAA). OpenAI y Anthropic ofrecen BAAs para niveles empresariales, pero:

    • Los BAAs solo estan disponibles en planes empresariales (no en acceso estandar a API)
    • El BAA cubre el manejo de datos, no el hecho de que los datos transitan por internet publico
    • Los auditores cada vez mas senalan la IA en la nube como un riesgo de cumplimiento incluso con BAAs

    GDPR (Usuarios europeos)

    El GDPR requiere una base legal para procesar datos personales y para transferirlos fuera de la UE. Enviar datos de usuarios europeos a proveedores de IA basados en EE.UU. plantea preguntas de transferencia bajo Schrems II.

    Incluso con Clausulas Contractuales Estandar (SCCs), la Autoridad de Proteccion de Datos (DPA) puede cuestionar si la transferencia esta adecuadamente protegida. El riesgo es real: las multas bajo GDPR pueden alcanzar el 4% de los ingresos anuales globales.

    SOC 2 / ISO 27001

    Si tu empresa tiene certificacion SOC 2 o ISO 27001, el procesamiento de datos por terceros debe documentarse y auditarse. Cada proveedor de API de IA se convierte en un proveedor en tu cadena de suministro que los auditores escrutaran.

    Etiquetas de privacidad de App Store

    Apple requiere etiquetas nutricionales de privacidad. Si tu app envia datos de usuario a una API de IA, debes divulgar:

    • Datos vinculados al usuario
    • Datos usados para seguimiento (si se adjunta analitica)
    • Comparticion de datos con terceros

    Los usuarios ven esto antes de descargar. Las apps con divulgaciones extensas de comparticion de datos ven tasas de instalacion mas bajas comparadas con alternativas amigables con la privacidad.

    Confianza del usuario

    Las preocupaciones de privacidad estan creciendo entre los usuarios moviles:

    • El 87% de consumidores dice que no haria negocios con una empresa si tuvieran preocupaciones sobre sus practicas de datos (Cisco Consumer Privacy Survey, 2025)
    • El 76% de usuarios de smartphones han rechazado un permiso de app debido a preocupaciones de privacidad (Pew Research)
    • Las tasas de desinstalacion de apps aumentan cuando los usuarios descubren comparticion inesperada de datos a traves de cobertura de noticias o reportes de privacidad

    Para apps en categorias sensibles (salud, finanzas, productividad personal), la privacidad es un diferenciador competitivo. "Tus datos nunca salen de tu dispositivo" es un mensaje de marketing que resuena.

    La alternativa en el dispositivo

    La IA en el dispositivo elimina el problema de privacidad estructuralmente. El modelo se ejecuta en el telefono del usuario. La entrada del usuario se procesa localmente. No se transmiten datos.

    FactorAPI en la nubeEn el dispositivo
    Datos de usuario enviados a tercerosCada solicitudNunca
    Cumplimiento HIPAARequiere BAA + nivel empresarialCumple por arquitectura
    Preocupaciones de transferencia GDPRSi (proveedores en EE.UU.)Ninguna (datos en el dispositivo)
    Etiqueta de privacidad de App Store"Datos compartidos con terceros""Datos no recopilados"
    Retencion de datos del proveedor30 dias (tipico)Ninguna
    Riesgo de revision humanaPosible (contenido marcado)Ninguno
    Riesgo de cambio de politicaLos terminos pueden cambiar unilateralmenteN/A

    La implementacion tecnica

    La inferencia en el dispositivo significa que el modelo de IA se ejecuta directamente en el hardware del usuario. El ciclo de inferencia es:

    1. El usuario escribe la entrada
    2. La entrada se tokeniza en el dispositivo
    3. El modelo genera la respuesta en el dispositivo
    4. La respuesta se muestra

    Sin llamada de red. Sin servidor externo. Sin datos en transito. Los datos del usuario existen solo en el almacenamiento local de su app y en la RAM del dispositivo durante la inferencia.

    El caso de negocio

    Mas alla del cumplimiento regulatorio, la IA en el dispositivo tiene un impacto de negocio concreto:

    Menor friccion en mercados sensibles: Las apps de salud, finanzas y legales que pueden afirmar verazmente "tus datos nunca salen de tu dispositivo" enfrentan menos objeciones de usuarios y menor abandono.

    Postura de cumplimiento mas simple: Sin BAAs que negociar, sin acuerdos de procesamiento de datos, sin evaluaciones de transferencia GDPR. La superficie de cumplimiento se reduce dramaticamente.

    Responsabilidad reducida: Si los datos del usuario nunca se transmiten, no hay datos en transito que interceptar, no hay brecha de terceros que exponga a tus usuarios, y no hay cambio de politica del proveedor que cree un problema de cumplimiento retroactivo.

    Ventaja en App Store: Una etiqueta de privacidad limpia en App Store y Play Store construye confianza antes de que el usuario siquiera abra la app.

    Haciendo la transicion

    1. Audita tu flujo de datos actual. Que datos de usuario se incluyen en cada llamada a la API? Mapea cada campo.
    2. Evalua la exposicion regulatoria. Que regulaciones aplican a tu base de usuarios y tipos de datos?
    3. Recopila datos de entrenamiento. Tus interacciones de API existentes (con consentimiento apropiado) son tu dataset de entrenamiento.
    4. Fine-tunea un modelo de dominio. Usa una plataforma como Ertas para fine-tunear un modelo pequeno (1-3B parametros) en tu tarea especifica.
    5. Despliega en el dispositivo. Exporta como GGUF, integra llama.cpp, ejecuta localmente.
    6. Actualiza tu politica de privacidad. La mejor parte: puedes eliminar las divulgaciones de comparticion de datos con terceros.

    La mejora de privacidad no es solo una casilla de cumplimiento. Es una funcion de cara al usuario que construye confianza y reduce el abandono.

    Ship AI that runs on your users' devices.

    Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.

    Keep reading