Back to blog
    El 77% de los Empleados Estan Filtrando Datos a Herramientas de AI: Lo Que los CISOs Necesitan Saber
    shadow-aidata-leakagecisoenterprise-securitycompliancesegment:enterprise

    El 77% de los Empleados Estan Filtrando Datos a Herramientas de AI: Lo Que los CISOs Necesitan Saber

    La mayoria de los empleados estan pegando datos sensibles de la empresa en herramientas de AI externas. Los numeros son peores de lo que piensas, y bloquear el acceso solo empuja el uso a la clandestinidad. Esto es lo que realmente funciona.

    EErtas Team·

    En algun lugar de tu organizacion ahora mismo, un empleado esta pegando un contrato de cliente en ChatGPT. Otro esta subiendo codigo fuente a Claude. Un tercero esta alimentando datos financieros propietarios a una herramienta de AI de nivel gratuito usando su cuenta personal de Gmail.

    Esto no es hipotetico. Segun encuestas recientes de seguridad empresarial, el 77% de los empleados han usado herramientas de AI externas con datos de la empresa. El 82% de ellos lo hace a traves de cuentas personales en las que tu equipo de IT tiene cero visibilidad. El costo promedio de incidentes de riesgo interno vinculados al uso de shadow AI ha alcanzado $19.5 millones por organizacion.

    Estos numeros deberian incomodar a cualquier CISO. Pero la respuesta importa mas que la alarma. Las organizaciones que manejan esto bien no son las que entraron en panico y bloquearon todo. Son las que entendieron por que esta sucediendo y construyeron algo mejor.

    La Escala del Problema

    Empecemos con los numeros, porque son peores de lo que la mayoria de los equipos de seguridad asumen.

    Quienes Lo Hacen

    MetricaPorcentaje
    Empleados usando AI externa con datos de la empresa77%
    Usando cuentas personales (sin visibilidad corporativa)82%
    Trabajadores del conocimiento con comportamientos de AI no autorizados46-60%
    Empleados que creen que su uso de AI es inofensivo68%
    Organizaciones con visibilidad completa del uso de herramientas de AI12%

    Esto no es un comportamiento marginal. Es el comportamiento predeterminado. Cuando casi la mitad a dos tercios de tus trabajadores del conocimiento estan haciendo algo no autorizado, ya no es un problema de violacion de politicas — es una brecha sistemica.

    La Exposicion Financiera

    La organizacion promedio pierde $19.5 millones anuales por incidentes de riesgo interno relacionados con shadow AI. Ese numero incluye:

    • Costos directos de filtracion de datos: investigacion, notificacion, remediacion
    • Multas regulatorias: las violaciones de GDPR por si solas pueden alcanzar el 4% de los ingresos anuales globales
    • Robo de IP y exposicion competitiva: algoritmos propietarios, documentos de estrategia y planes de productos filtrados a pipelines de entrenamiento de modelos de terceros
    • Responsabilidad legal: datos de clientes compartidos con proveedores de AI sin consentimiento
    • Dano reputacional: el mas dificil de cuantificar pero frecuentemente el mas costoso

    Para contexto, la empresa promedio gasta $3.5 millones por ano en todo su stack de prevencion de perdida de datos (DLP). Las perdidas por shadow AI solamente son 5.5x el presupuesto completo de DLP.

    Lo Que los Empleados Realmente Estan Subiendo

    Los equipos de seguridad frecuentemente imaginan el peor caso. La realidad es mas mundana y mas peligrosa de lo esperado. Los empleados no estan subiendo datos maliciosamente. Los estan subiendo porque las herramientas de AI genuinamente les ayudan a trabajar mas rapido. Las categorias se desglosan asi:

    Codigo Fuente y Documentacion Tecnica

    Los desarrolladores pegan fragmentos de codigo, funciones completas y a veces archivos enteros en asistentes de AI para debugging, refactorizacion y revision de codigo. Esto incluye algoritmos propietarios, especificaciones internas de API, esquemas de bases de datos y configuraciones de infraestructura.

    El riesgo: la arquitectura de tu aplicacion y la logica de negocio ahora estan en un sistema de terceros. Dependiendo de los terminos de servicio y las politicas de retencion de datos de la herramienta, ese codigo puede ser usado para entrenamiento de modelos, almacenado indefinidamente, o ambos.

    Documentos Legales y Contratos

    Los equipos legales y gestores de contratos usan AI para resumir acuerdos, extraer terminos clave y redactar lenguaje de respuesta. Pegan NDAs, acuerdos de licencia, documentos de M&A y terminos de acuerdo.

    El riesgo: el privilegio abogado-cliente puede ser renunciado cuando comunicaciones privilegiadas se comparten con un tercero. Las disposiciones de confidencialidad en los mismos contratos que se analizan pueden prohibir compartirlos con herramientas externas.

    Informacion de RRHH y Evaluaciones de Desempeno

    Los gerentes pegan evaluaciones de desempeno en herramientas de AI para ayudar a redactar retroalimentacion. Los equipos de RRHH suben datos de compensacion, registros disciplinarios y organigramas para analisis.

    El riesgo: PII de empleados, detalles de compensacion y evaluaciones de desempeno en un sistema externo crean tanto violaciones de privacidad como potencial responsabilidad por discriminacion si esos datos influyen en salidas de AI usadas en otros lugares.

    Datos de Clientes

    Los equipos de ventas pegan emails de clientes, tickets de soporte e informacion de cuentas en herramientas de AI para redactar respuestas y analizar sentimiento. Los equipos de customer success suben datos de uso e indicadores de churn.

    El riesgo: dependiendo de tus acuerdos con clientes y las regulaciones aplicables (GDPR, CCPA, HIPAA), compartir datos de clientes con proveedores externos de AI puede violar obligaciones contractuales y disparar sanciones regulatorias.

    Reportes Financieros y Documentos Estrategicos

    Los equipos de finanzas usan AI para analizar resultados trimestrales, modelar escenarios y redactar comunicaciones para inversionistas. Los equipos de estrategia suben analisis competitivos, presentaciones de junta y objetivos de adquisicion.

    El riesgo: informacion material no publica en una herramienta de AI externa crea exposicion a uso de informacion privilegiada. Planes estrategicos visibles para un tercero socavan la ventaja competitiva.

    Resumenes de Reuniones y Discusiones Estrategicas

    Los empleados pegan notas de reuniones, hilos de Slack y cadenas de email en herramientas de AI para resumen y extraccion de items de accion.

    El riesgo: estos son frecuentemente los inputs mas densos en informacion. Un solo resumen de reunion puede contener referencias a proximos lanzamientos de productos, cambios de personal, metas financieras e inteligencia competitiva — todo en un solo prompt.

    El 1.6% Que Importa

    Aqui hay una estadistica que parece pequena pero no lo es: el 1.6% de los prompts de AI enviados por empleados empresariales contienen contenido que viola las politicas corporativas de datos.

    Por prompt, 1.6% suena manejable. Pero hagamos las cuentas.

    Un trabajador del conocimiento envia un promedio de 8-12 prompts de AI por dia. En una empresa de 100 personas:

    • Prompts diarios: 100 empleados x 10 prompts = 1,000 prompts/dia
    • Violaciones diarias: 1,000 x 1.6% = 16 violaciones por dia
    • Violaciones mensuales: 16 x 22 dias laborales = 352 violaciones por mes
    • Violaciones anuales: 352 x 12 = 4,224 violaciones por ano

    Escala eso a una empresa de 1,000 personas y estas viendo mas de 42,000 violaciones de politica anualmente — o aproximadamente 160-180 por dia laboral.

    Cada una de esas violaciones representa datos sensibles saliendo de tu perimetro de seguridad. Algunas seran benignas. Algunas contendran PII, PHI, secretos comerciales o comunicaciones privilegiadas. No sabras cual es cual porque no tienes visibilidad del contenido de esos prompts.

    Con 10,000 empleados, el numero cruza las 400,000 violaciones anuales. Este no es un numero manejable sin herramientas automatizadas.

    Por Que los Empleados Lo Hacen

    Entender la motivacion importa porque moldea la respuesta efectiva. Los datos consistentemente muestran cuatro impulsores:

    1. No Existe una Alternativa Autorizada

    Este es el mas grande. En la mayoria de las organizaciones, los empleados comenzaron a usar herramientas de AI externas porque nada comparable estaba disponible internamente. Para cuando el equipo de seguridad lo noto, el uso estaba arraigado.

    Si tu organizacion no proporciona una herramienta de AI que los empleados puedan usar con datos de la empresa, encontraran una por su cuenta. Esto no es una prediccion; es una observacion de lo que ya ha sucedido en la mayoria de las empresas.

    2. Las Ganancias de Productividad Son Reales

    Los empleados que usan herramientas de AI reportan mejoras de productividad del 25-40% en tareas como escritura, resumen, generacion de codigo y analisis de datos. No estan filtrando datos porque sean descuidados o maliciosos. Lo hacen porque las herramientas genuinamente los hacen mejores en sus trabajos.

    Un desarrollador que puede depurar codigo 3x mas rapido usando Claude no va a parar por un memo de politica. Un analista legal que puede revisar contratos en minutos en lugar de horas no va a regresar al metodo antiguo. La diferencia de productividad es demasiado grande.

    3. Normalizacion del Comportamiento Riesgoso

    Cuando el 77% de los empleados estan haciendo algo, deja de sentirse como una violacion. "Todos lo hacen" se convierte en la norma cultural. Los nuevos empleados ven a colegas usando herramientas de AI externas abiertamente y asumen que esta permitido.

    Esta normalizacion se acelera con el tiempo. A medida que las herramientas de AI se integran mas en los flujos de trabajo diarios, el riesgo percibido disminuye incluso cuando el riesgo real aumenta.

    4. Los Equipos de Seguridad Carecen de Visibilidad

    La mayoria de las herramientas DLP fueron disenadas para transferencias de archivos, adjuntos de email y memorias USB. No fueron disenadas para inspeccionar el contenido de solicitudes HTTPS POST a ai.com o anthropic.com. Sin visibilidad de lo que se esta enviando, los equipos de seguridad no pueden hacer cumplir politicas que no pueden medir.

    Muchas organizaciones ni siquiera conocen la escala del problema hasta que despliegan monitoreo especifico para el uso de herramientas de AI.

    La Trampa de "Solo Bloquealo"

    La respuesta instintiva de seguridad es bloquear el acceso a herramientas de AI externas. Agregar ChatGPT, Claude, Gemini y Copilot al filtro web. Problema resuelto.

    Este enfoque falla por tres razones:

    Empuja el uso a canales no monitoreados. Bloquea herramientas de AI en laptops corporativas y los empleados usan telefonos personales. Bloquealas en la red corporativa y los empleados usan su internet de casa. El uso no se detiene — solo se mueve a donde no puedes verlo. Intercambiaste un problema visible por uno invisible.

    Nuevas herramientas de AI aparecen mas rapido de lo que puedes bloquearlas. Hay cientos de herramientas impulsadas por AI, y el numero crece semanalmente. Puedes bloquear las plataformas principales, pero los empleados encontraran alternativas — funciones de AI integradas en herramientas existentes, extensiones de navegador, apps moviles y productos de AI de nicho especificos de la industria que no aparecen en ninguna lista de bloqueo.

    Crea friccion organizacional sin resolver el problema subyacente. El problema subyacente es que los empleados necesitan herramientas de AI para ser productivos. Bloquear el acceso no elimina la necesidad. Solo les dice a los empleados que el equipo de seguridad prioriza el control sobre la productividad. Esto erosiona la confianza y reduce el cumplimiento con otras politicas de seguridad.

    Las organizaciones que han intentado el bloqueo total consistentemente reportan el mismo resultado: el uso clandestino aumenta, la visibilidad disminuye y la posicion de riesgo neto empeora.

    Lo Que Realmente Funciona

    Las organizaciones que manejan esto efectivamente comparten un enfoque comun. Tratan el shadow AI como un problema de oferta, no solo de demanda. Los empleados quieren herramientas de AI. La pregunta es si tu proporcionas esas herramientas o dejas que los empleados encuentren las suyas.

    Proporcionar Mejores Alternativas Internas

    Esta es la contramedida individual mas efectiva. Despliega una plataforma de AI interna que los empleados puedan usar con datos de la empresa. La barra es mas baja de lo que piensas:

    • Solucion minima viable: Ollama + Open WebUI ejecutandose en un solo servidor proporciona una interfaz tipo ChatGPT respaldada por modelos open-source. Costo: $5,000-$15,000 en hardware, cero costos de API continuos. Tiempo de despliegue: 1-2 semanas.
    • Solucion de rango medio: Una plataforma de AI on-premise con multiples opciones de modelo, carga de documentos, asistencia de codigo y espacios de trabajo de equipo. Costo: $50,000-$100,000. Tiempo de despliegue: 4-8 semanas.
    • Solucion empresarial: Plataforma de AI completa con modelos ajustados entrenados con tus datos empresariales, pipelines RAG conectados a bases de conocimiento internas y logging de auditoria completo. Costo: $100,000-$500,000. Tiempo de despliegue: 3-6 meses.

    Incluso la solucion minima viable elimina la mayoria del uso de shadow AI. Cuando los empleados tienen una herramienta interna que funciona, la mayoria la usara — especialmente si se posiciona como mas rapida y segura en lugar de como una restriccion.

    Hacer la Politica Clara y Practica

    Una politica que dice "no uses herramientas de AI no autorizadas" es inutil. Una politica que dice "esto es lo que puedes usar, esto es lo que no puedes poner en herramientas externas, y esta es la razon" es efectiva. Las politicas efectivas incluyen:

    • Una lista clara de herramientas de AI aprobadas y como acceder a ellas
    • Una guia de clasificacion de datos (que puede ir en herramientas externas, que no, que requiere aprobacion)
    • Ejemplos especificos relevantes para cada departamento
    • Un proceso para solicitar nuevas herramientas o capacidades
    • Consecuencias que son proporcionales y aplicadas consistentemente

    La politica deberia caber en dos paginas. Si es mas larga, nadie la leera.

    Monitorear Sin Criminalizar

    Despliega monitoreo que te de visibilidad de los patrones de uso de herramientas de AI sin tratar a cada empleado como sospechoso. El objetivo es detectar comportamientos de alto riesgo — PII en prompts, subidas de codigo fuente, exposicion de datos financieros — no vigilar a todos.

    El monitoreo efectivo se ve asi:

    • Nivel de red: Rastrear que dominios de AI se estan accediendo y el volumen de datos transmitidos
    • Nivel de endpoint: Senalar cuando tipos de archivos sensibles se copian al portapapeles antes de acceder a una herramienta de AI
    • Nivel de contenido: Escanear prompts de AI salientes buscando patrones que coincidan con PII, credenciales o datos clasificados
    • Comportamental: Identificar patrones inusuales — un empleado que repentinamente comienza a enviar mas de 200 prompts por dia amerita una conversacion, no un despido

    Enmarca el monitoreo como protector, no punitivo. "Monitoreamos para proteger a la empresa y a nuestros empleados de la exposicion accidental de datos" aterriza mejor que "estamos observando todo lo que escribes."

    Abordar el Problema de Oferta

    La mayoria de los programas de shadow AI se enfocan en reducir la demanda — bloquear herramientas, escribir politicas, ejecutar capacitaciones. Estas importan, pero son secundarias a la cuestion de oferta.

    La razon por la que los empleados usan herramientas de AI externas es que necesitan herramientas de AI y no existe una opcion interna. Arregla el problema de oferta primero:

    1. Semana 1-2: Despliega un chatbot de AI interno basico (Ollama + Open WebUI o equivalente)
    2. Semana 3-4: Anuncia la disponibilidad, proporciona capacitacion y comienza a migrar usuarios
    3. Mes 2-3: Expande capacidades basandote en patrones de uso y retroalimentacion de empleados
    4. Mes 4-6: Implementa modelos ajustados para casos de uso de alto valor
    5. Continuo: Mejora continuamente la plataforma interna para mantener paridad con herramientas externas

    Las organizaciones que despliegan alternativas internas primero y escriben politicas despues consistentemente reportan una reduccion del 60-80% en el uso de herramientas de AI externas dentro de 90 dias.

    La Comparacion de Costos

    EnfoqueCostoReduccion de Shadow AIRiesgo Neto
    Bloquear todas las herramientas de AI$10K-$50K (filtrado)20-30% (el uso se mueve a la clandestinidad)Mayor (menos visibilidad)
    Solo politica + capacitacion$20K-$50K (desarrollo + entrega)15-25% (efecto temporal)Ligeramente menor
    Plataforma de AI interna + politica$50K-$200K (despliegue)60-80%Significativamente menor
    AI interna + monitoreo + politica$100K-$300K (programa completo)80-95%El mas bajo

    Las cuentas son directas. $19.5 millones en perdidas anuales promedio versus $100K-$300K para construir una alternativa interna integral. Incluso si esas cifras de perdidas estan infladas 5x para tu organizacion especifica, el ROI sigue siendo abrumador.

    Que Hacer el Lunes por la Manana

    Si eres un CISO leyendo esto, aqui esta la lista de prioridades:

    1. Mide el problema (esta semana): Despliega monitoreo basico para entender cuantos empleados estan usando herramientas de AI externas y que datos se estan enviando. No puedes gestionar lo que no puedes medir.

    2. Despliega una alternativa rapida (proximas 2 semanas): Levanta Ollama + Open WebUI o equivalente. No necesita ser perfecto. Necesita existir para que los empleados tengan a donde ir que no sea ChatGPT con su cuenta personal.

    3. Escribe una politica practica (proximos 30 dias): Dos paginas. Herramientas aprobadas, clasificacion de datos, ejemplos especificos por departamento. Distribuyela con el anuncio de la herramienta interna, para que se lea como "aqui esta tu nueva herramienta y como usarla de forma segura" en lugar de "aqui hay una lista de cosas que no puedes hacer."

    4. Construye la solucion a largo plazo (proximos 90 dias): Evalua plataformas de AI on-premise que puedan escalar a las necesidades de tu organizacion. Busca capacidades de fine-tuning, integracion RAG, logging de auditoria completo y soporte para multiples modelos.

    5. Crea un ciclo de retroalimentacion (continuo): La herramienta interna debe mejorar continuamente. Si se queda atras de las herramientas externas en capacidad, los empleados regresaran. Asigna presupuesto continuo para actualizaciones de modelos, expansion de capacidades y escalamiento de infraestructura.

    Las organizaciones que ejecutan este playbook reportan resultados medibles dentro de 90 dias: el uso de shadow AI baja, los incidentes de seguridad disminuyen y — quizas sorprendentemente — la satisfaccion de los empleados con las herramientas de AI aumenta. Resulta que las personas prefieren usar una herramienta autorizada que no les requiera preocuparse por violaciones de politica.

    El problema de filtracion de datos es real. Pero la solucion no es luchar contra la adopcion de AI. Es liderarla.

    Turn unstructured data into AI-ready datasets — without it leaving the building.

    On-premise data preparation with full audit trail. No data egress. No fragmented toolchains. EU AI Act Article 30 compliance built in.

    Keep reading