Back to blog
    Lista de Verificación de Auditoría de Shadow AI: Encuentra Cada Herramienta de IA No Autorizada en Tu Organización
    shadow-aiauditenterprise-securitychecklistcompliancesegment:enterprise

    Lista de Verificación de Auditoría de Shadow AI: Encuentra Cada Herramienta de IA No Autorizada en Tu Organización

    Un proceso de auditoría paso a paso para descubrir herramientas de IA no autorizadas en tu organización. Cubre análisis de tráfico de red, auditorías de extensiones de navegador, análisis de gasto SaaS, encuestas a empleados, revisiones de DLP y auditorías de claves API — con una lista de verificación de 25 elementos que puedes usar inmediatamente.

    EErtas Team·

    No puedes asegurar lo que no puedes ver. Antes de escribir políticas, desplegar herramientas de monitoreo o implementar alternativas de IA sancionadas, necesitas una imagen precisa de qué herramientas de IA se están usando actualmente en tu organización, por quién y con qué datos.

    Esta es la auditoría de shadow AI. Es un proceso estructurado y repetible que produce un inventario completo del uso no autorizado de IA — herramientas, usuarios, categorías de datos y niveles de riesgo. Este artículo proporciona el proceso completo, incluyendo una lista de verificación de 25 elementos que puedes adaptar a tu organización inmediatamente.

    Las organizaciones con 200–1,000 empleados interactúan con un promedio de 45 sitios web de IA distintos mensualmente. En organizaciones más grandes, ese número sube a 72. La auditoría casi seguro revelará más herramientas de las que esperas.


    Antes de Empezar: Define el Alcance

    Define tres cosas antes de comenzar:

    Ventana de tiempo. Audita los últimos 90 días. Esto captura patrones de uso habitual sin ir tan atrás que los datos estén desactualizados. La adopción de herramientas de IA se está acelerando — los patrones de uso de hace seis meses podrían no reflejar el comportamiento actual.

    Alcance organizacional. Decide si esta es una auditoría de toda la empresa o un enfoque por departamentos. Si tienes recursos limitados, empieza con los departamentos que manejan los datos más sensibles: legal, RRHH, finanzas, ingeniería y equipos que dan la cara al cliente.

    Resultado deseado. La auditoría debería producir tres entregables: (1) un inventario de todas las herramientas de IA en uso, (2) una clasificación de riesgo de cada herramienta basada en sensibilidad de datos, y (3) una lista de acciones de remediación inmediata ordenadas por riesgo.


    Fase 1: Análisis de Tráfico de Red

    Los logs de red son tu fuente de datos más objetiva. Muestran lo que realmente pasó, no lo que los empleados recuerdan o eligen divulgar.

    Qué buscar

    Monitorea conexiones salientes a dominios conocidos de servicios de IA. La siguiente lista cubre los servicios principales a marzo de 2026, pero nuevas herramientas aparecen mensualmente — actualiza esta lista trimestralmente.

    Servicio de IADominios a Monitorear
    OpenAI / ChatGPTchat.openai.com, api.openai.com, cdn.openai.com
    Anthropic / Claudeclaude.ai, api.anthropic.com, console.anthropic.com
    Google Geminigemini.google.com, generativelanguage.googleapis.com, aistudio.google.com
    Perplexityperplexity.ai, api.perplexity.ai
    xAI / Grokgrok.x.ai, x.com/i/grok
    Mistralchat.mistral.ai, api.mistral.ai
    Coherecoral.cohere.com, api.cohere.ai
    Hugging Facehuggingface.co, api-inference.huggingface.co
    Poepoe.com
    Character.AIcharacter.ai
    Jasperapp.jasper.ai
    Copy.aiapp.copy.ai
    Notion AInotion.so (busca llamadas API específicas de IA)
    GitHub Copilotcopilot.github.com, copilot-proxy.githubusercontent.com
    Cursor AIcursor.sh, api2.cursor.sh
    Codeiumcodeium.com, server.codeium.com

    Cómo extraer estos datos

    • Logs de firewall: Exporta logs de conexión de tu firewall o appliance UTM. Filtra por los dominios anteriores. La mayoría de firewalls empresariales (Palo Alto, Fortinet, Sophos) pueden exportar a CSV o SIEM.
    • Logs de consultas DNS: Si ejecutas DNS interno, los logs de consultas muestran cada búsqueda de dominio independientemente de si la conexión se completó. Esto detecta herramientas que los empleados intentaron acceder incluso si el firewall las bloqueó.
    • Logs de proxy: Si enrutas tráfico web a través de un proxy (Zscaler, Netskope, etc.), tienes visibilidad completa a nivel de URL incluyendo tráfico HTTPS inspeccionado.
    • Agregación SIEM: Si tienes un SIEM (Splunk, Sentinel, Elastic), crea un dashboard que agregue conexiones a los dominios anteriores, agrupados por IP de origen a mapeo de usuario.

    Qué te dice esto

    El análisis de red te da las herramientas en uso, la frecuencia de uso y los usuarios (vía mapeo IP-a-usuario desde tu servicio de directorio). No te dice qué datos se enviaron — eso requiere inspección DLP, que se cubre en la Fase 5.


    Fase 2: Auditoría de Extensiones de Navegador

    Las extensiones de navegador con IA son un vector significativo y a menudo pasado por alto. Los empleados instalan extensiones que leen contenido de páginas, capturan datos de formularios o interceptan contenido del portapapeles — y lo envían a servicios de IA externos para procesamiento.

    Qué auditar

    • Inventario de extensiones Chrome: Usa la Consola de Administración de Google (para Chrome administrado) o herramientas de gestión de endpoints (Intune, Jamf) para extraer una lista de extensiones instaladas en todos los dispositivos administrados.
    • Inventario de extensiones Edge: Mismo proceso vía Microsoft Endpoint Manager.
    • Categorías de extensiones a señalar: Cualquier extensión con permisos para "Leer y cambiar todos tus datos en todos los sitios web," "Leer tu historial de navegación," o "Modificar datos que copias y pegas."

    Extensiones de IA comunes a buscar

    • Extensiones de navegador de ChatGPT (múltiples variantes de terceros)
    • Merlin (GPT-4 en navegador)
    • Monica AI
    • Sider AI
    • MaxAI.me
    • UseChatGPT.AI
    • Compose AI
    • Writesonic
    • Grammarly (funcionalidades de IA — puede estar sancionado, verificar)
    • Otter.ai (transcripción de reuniones — a menudo instalado individualmente)

    Evaluación de riesgo

    Las extensiones que tienen permisos de "leer todos los datos del sitio" pueden capturar datos de aplicaciones web internas (tu CRM, ERP, intranet, repositorios de código) y enviarlos a servidores externos. Esto es un riesgo mayor que los empleados pegando datos manualmente en ChatGPT, porque ocurre de forma pasiva y continua.


    Fase 3: Análisis de Gasto SaaS

    Las suscripciones individuales de IA aparecen en reportes de gastos y en tarjetas de crédito corporativas. Este es un método de detección simple pero efectivo.

    Dónde buscar

    • Reportes de gastos: Busca solicitudes de reembolso que contengan "OpenAI," "ChatGPT," "Claude," "Anthropic," "Jasper," "Copy.ai," "Midjourney," "Runway," o "AI" en la descripción.
    • Estados de tarjeta de crédito corporativa: Ejecuta la misma búsqueda de palabras clave en todas las transacciones de tarjetas corporativas de los últimos 90 días.
    • Sistema de adquisiciones: Verifica si algún equipo ha presentado solicitudes de compra de herramientas de IA fuera de tu proceso estándar de adquisiciones.
    • Cargos de app store: Para organizaciones que reembolsan compras de apps móviles, verifica suscripciones a apps de IA (ChatGPT Plus a $20/mes es la más común).

    Qué te dice esto

    El análisis de gasto SaaS identifica a los empleados que están lo suficientemente comprometidos con las herramientas de IA como para pagarlas. Estos son típicamente tus usuarios más pesados y los que envían más datos. También son, de forma importante, los que tendrán las opiniones más fuertes sobre lo que una alternativa sancionada necesita hacer.


    Fase 4: Encuesta a Empleados

    Los logs de red te dicen qué herramientas se están usando. Una encuesta a empleados te dice por qué se están usando y qué datos se están procesando. Ambas son necesarias.

    Principios de diseño de la encuesta

    • Anónima. Si los empleados temen castigo, no divulgarán su uso. Haz la encuesta explícitamente anónima y enmárcala como un ejercicio de descubrimiento, no una investigación.
    • Específica. No preguntes "¿Usas herramientas de IA?" Pregunta "En los últimos 30 días, ¿has usado alguna de las siguientes herramientas para tareas relacionadas con el trabajo?" y lista herramientas específicas.
    • Enfocada en datos. Pregunta qué categorías de datos han usado con herramientas de IA: código fuente, datos de clientes, datos financieros, datos de RRHH, documentos legales, comunicaciones internas, notas de reuniones.

    Preguntas de ejemplo

    1. ¿Qué herramientas de IA has usado para tareas relacionadas con el trabajo en los últimos 30 días? (Selecciona todas las que apliquen — lista herramientas específicas)
    2. ¿Con qué frecuencia usas herramientas de IA para el trabajo? (Diariamente / Varias veces por semana / Semanalmente / Mensualmente / Raramente)
    3. ¿Para qué tipos de tareas laborales usas herramientas de IA? (Escritura/edición, desarrollo de código, análisis de datos, investigación, resumen, traducción, otro)
    4. ¿Qué tipos de datos de la empresa has ingresado en herramientas de IA? (Código fuente, información de clientes, datos financieros, datos de RRHH/personal, documentos legales, notas de reuniones, comunicaciones internas, ninguno, otro)
    5. ¿Usas una cuenta personal o una cuenta proporcionada por la empresa para herramientas de IA?
    6. ¿Qué te impide usar herramientas de IA aprobadas por la empresa? (No existen herramientas aprobadas, las herramientas aprobadas son muy limitadas, las herramientas aprobadas son muy lentas, no sabía que existían herramientas aprobadas, otro)
    7. Si la empresa proporcionara un asistente de IA interno con capacidades equivalentes, ¿lo usarías en lugar de herramientas externas?

    La pregunta 6 es crítica. Te dice por qué la alternativa sancionada (si tienes una) no está siendo adoptada, o confirma que no tienes una.


    Fase 5: Revisión de Políticas DLP

    La mayoría de organizaciones tienen políticas de Prevención de Pérdida de Datos configuradas para email, USB y almacenamiento en la nube. Muy pocas han extendido esas políticas para cubrir el uso de herramientas de IA.

    Audita tu configuración DLP actual

    • ¿Tu política DLP monitorea las subidas del navegador? Específicamente, ¿inspecciona contenido siendo enviado vía envíos de formularios o llamadas API a dominios de servicios de IA?
    • ¿Tu política DLP cubre operaciones de portapapeles? Copiar-pegar en una herramienta de IA basada en navegador es el método más común de exfiltración de datos para shadow AI.
    • ¿Los dominios de servicios de IA están en el alcance de monitoreo de tu DLP? La mayoría de soluciones DLP pueden configurarse para señalar o bloquear subidas a dominios específicos. Verifica si los dominios de IA de la Fase 1 están incluidos.
    • ¿Qué categorías de clasificación de datos activan alertas? Asegura que tus clasificaciones DLP (PII, PHI, datos financieros, código fuente, privilegio legal) se apliquen a destinos de herramientas de IA, no solo a email y almacenamiento en la nube.

    Evaluación de brechas

    Si tu DLP no cubre las subidas a herramientas de IA, tienes una brecha de monitoreo. Cuantifícala: basándote en los datos de red de la Fase 1, ¿cuántas conexiones por día se están haciendo a servicios de IA, y qué porcentaje de esas podría involucrar datos sensibles basándote en los roles de los usuarios que hacen esas conexiones?


    Fase 6: Auditoría de Claves API

    Los desarrolladores y equipos técnicos pueden estar usando servicios de IA de forma programática, incrustando claves API en repositorios de código, archivos de entorno, pipelines CI/CD o scripts. Este uso es más difícil de detectar a través del monitoreo de red porque puede ejecutarse en máquinas de desarrollo, servidores CI o infraestructura en la nube.

    Dónde buscar

    • Repositorios de código: Busca cadenas como sk-, sk-proj-, OPENAI_API_KEY, ANTHROPIC_API_KEY, GOOGLE_API_KEY en todos los repositorios Git internos (GitHub, GitLab, Bitbucket).
    • Archivos de entorno: Busca archivos .env, .env.local, .env.production que contengan claves API de servicios de IA.
    • Secretos CI/CD: Revisa los secretos almacenados en GitHub Actions, GitLab CI, Jenkins o tu plataforma CI/CD para credenciales de servicios de IA.
    • Herramientas de escaneo de secretos: Si usas un escáner de secretos (GitGuardian, TruffleHog, gitleaks), verifica si los patrones de claves API de IA están incluidos en las reglas de escaneo.
    • Infraestructura en la nube: Verifica AWS Secrets Manager, Azure Key Vault o GCP Secret Manager para credenciales de servicios de IA que puedan haber sido aprovisionadas fuera del proceso estándar de adquisiciones.

    Evaluación de riesgo

    El uso de claves API típicamente involucra procesamiento de datos automatizado o semi-automatizado, lo que significa mayores volúmenes de datos siendo enviados a servicios de IA externos. Un desarrollador ejecutando un script que procesa 10,000 registros de clientes a través de la API de OpenAI es una exposición de mayor volumen que el mismo desarrollador pegando manualmente unos pocos registros en ChatGPT.


    La Lista Maestra de Verificación

    Usa esta lista de verificación para rastrear el completado de la auditoría. Cada elemento debe marcarse como completado con hallazgos documentados.

    #Elemento de AuditoríaFaseEstado
    1Exportar logs de firewall/proxy de los últimos 90 díasRed
    2Filtrar logs por todos los dominios conocidos de servicios de IARed
    3Mapear IPs de origen a cuentas de usuario vía servicio de directorioRed
    4Contar usuarios únicos y frecuencia por servicio de IARed
    5Verificar logs de consultas DNS para dominios de IA no en logs de firewallRed
    6Extraer inventario de extensiones de navegador instaladas de todos los dispositivos administradosExtensiones
    7Señalar extensiones con permisos de "leer todos los datos del sitio" o portapapelesExtensiones
    8Cruzar extensiones señaladas contra lista conocida de extensiones de IAExtensiones
    9Buscar en reportes de gastos reembolsos de herramientas de IA (últimos 90 días)Gasto SaaS
    10Buscar en transacciones de tarjeta corporativa cargos de servicios de IAGasto SaaS
    11Verificar sistema de adquisiciones para solicitudes no aprobadas de herramientas de IAGasto SaaS
    12Verificar reembolsos de apps móviles para suscripciones de IAGasto SaaS
    13Diseñar y distribuir encuesta anónima de uso de IA a empleadosEncuesta
    14Analizar resultados de encuesta: herramientas usadas, tipos de datos, frecuenciaEncuesta
    15Identificar departamentos con mayor adopción de shadow AIEncuesta
    16Identificar categorías de datos más comúnmente pegadas en herramientas de IAEncuesta
    17Verificar que políticas DLP cubran subidas de navegador a dominios de IADLP
    18Verificar que DLP cubra operaciones de portapapeles/pegado a sitios de IADLP
    19Confirmar que dominios de servicios de IA están en alcance de monitoreo DLPDLP
    20Confirmar que clasificaciones de datos sensibles aplican a egreso de IADLP
    21Escanear todos los repositorios de código para claves API de IAClaves API
    22Buscar archivos .env en entornos de desarrolloClaves API
    23Auditar secretos CI/CD para credenciales de servicios de IAClaves API
    24Verificar almacenes de secretos en la nube para credenciales API de IAClaves API
    25Compilar hallazgos en inventario clasificado por riesgo con prioridades de remediaciónFinal

    Interpretando los Resultados

    Después de completar las seis fases, tendrás tres categorías de hallazgos:

    Categoría 1: Herramientas sancionadas conocidas con brechas de política

    Estas son herramientas que la organización ha aprobado (por ejemplo, GitHub Copilot, Grammarly) pero donde el uso excede el alcance aprobado. Por ejemplo, Copilot está aprobado para sugerencias de código pero los desarrolladores también están pegando datos de clientes en ChatGPT para depuración. La herramienta está sancionada; el patrón de uso no lo está.

    Acción: Actualiza las políticas para aclarar uso aprobado vs. no aprobado de herramientas sancionadas. Actualiza reglas DLP para aplicar restricciones de categoría de datos.

    Categoría 2: Herramientas no sancionadas con baja sensibilidad de datos

    Estas son herramientas de IA de consumo siendo usadas para tareas que no involucran datos sensibles — reformular emails, generar plantillas de agenda de reuniones, lluvia de ideas. Las herramientas no están aprobadas, pero el riesgo de datos es bajo.

    Acción: Decide si sancionar estas herramientas (si el costo es mínimo y el riesgo es bajo) o redirigir este uso a una alternativa interna. No sobreactúes ante uso de bajo riesgo — tratar el uso benigno de productividad como un incidente de seguridad daña la confianza e impulsa el comportamiento a la clandestinidad.

    Categoría 3: Herramientas no sancionadas con alta sensibilidad de datos

    Este es el hallazgo crítico. Datos sensibles — código fuente, PII de clientes, datos financieros, documentos legales — fluyendo hacia herramientas de IA de consumo a través de cuentas personales sin controles organizacionales.

    Acción: Esto requiere remediación inmediata. El orden de prioridad es:

    1. Despliega una alternativa sancionada on-premise para los casos de uso específicos identificados. Si los desarrolladores están pegando código en ChatGPT, necesitan un asistente de codificación con IA interno. Si los equipos legales están resumiendo contratos, necesitan una herramienta interna de análisis de documentos con IA. Consulta How to Build a Sanctioned AI Alternative to ChatGPT for Your Enterprise.

    2. Actualiza políticas DLP para bloquear o alertar sobre subidas de datos sensibles a dominios de IA no sancionados.

    3. Comunica con los equipos afectados — no punitivamente, sino para explicar el riesgo e introducir la alternativa sancionada.

    4. Establece monitoreo continuo para detectar la adopción de nuevas herramientas de shadow AI antes de que alcance la escala que acabas de descubrir.


    Después de la Auditoría: Construyendo el Plan de Remediación

    La auditoría no es el final — es la entrada para un plan de remediación. Ese plan debería abordar cuatro áreas:

    Alternativas sancionadas. Para cada patrón de uso de alto riesgo identificado, determina qué herramienta sancionada o despliegue interno lo reemplazará. El objetivo no es eliminar el uso de IA — es mover el uso de IA a infraestructura que controlas.

    Política. Redacta o actualiza tu política de uso de IA para reflejar lo que la auditoría reveló. Una política que no aborda las herramientas y casos de uso reales que los empleados están usando es una política que será ignorada.

    Monitoreo. Implementa monitoreo continuo para las seis categorías auditadas anteriormente. La auditoría es una foto instantánea; el monitoreo proporciona visibilidad continua. Establece una cadencia trimestral para repetir la auditoría completa.

    Capacitación. Usa los hallazgos de la auditoría (anonimizados) para construir materiales de capacitación. Mostrar a los empleados que más de 45 herramientas de IA se están usando en la organización, con tipos específicos de datos en riesgo, es más persuasivo que la capacitación abstracta de seguridad.


    Cadencia de Auditoría

    El shadow AI no es un problema único. Nuevas herramientas de IA se lanzan semanalmente, los patrones de adopción de los empleados cambian, y la frontera entre sancionado y no sancionado se difumina a medida que los equipos experimentan.

    Ejecuta la auditoría completa trimestralmente. Entre auditorías completas, mantén monitoreo continuo vía logs de red y alertas DLP. Actualiza la lista de dominios de servicios de IA mensualmente.

    Para el contexto más amplio sobre por qué el shadow AI es un riesgo de $19.5M y la solución estructural más allá de la auditoría, consulta Shadow AI: The $19.5M Enterprise Risk Your Security Team Can't See.

    Turn unstructured data into AI-ready datasets — without it leaving the building.

    On-premise data preparation with full audit trail. No data egress. No fragmented toolchains. EU AI Act Article 30 compliance built in.

    Keep reading