
Lista de Verificación de Auditoría de Shadow AI: Encuentra Cada Herramienta de IA No Autorizada en Tu Organización
Un proceso de auditoría paso a paso para descubrir herramientas de IA no autorizadas en tu organización. Cubre análisis de tráfico de red, auditorías de extensiones de navegador, análisis de gasto SaaS, encuestas a empleados, revisiones de DLP y auditorías de claves API — con una lista de verificación de 25 elementos que puedes usar inmediatamente.
No puedes asegurar lo que no puedes ver. Antes de escribir políticas, desplegar herramientas de monitoreo o implementar alternativas de IA sancionadas, necesitas una imagen precisa de qué herramientas de IA se están usando actualmente en tu organización, por quién y con qué datos.
Esta es la auditoría de shadow AI. Es un proceso estructurado y repetible que produce un inventario completo del uso no autorizado de IA — herramientas, usuarios, categorías de datos y niveles de riesgo. Este artículo proporciona el proceso completo, incluyendo una lista de verificación de 25 elementos que puedes adaptar a tu organización inmediatamente.
Las organizaciones con 200–1,000 empleados interactúan con un promedio de 45 sitios web de IA distintos mensualmente. En organizaciones más grandes, ese número sube a 72. La auditoría casi seguro revelará más herramientas de las que esperas.
Antes de Empezar: Define el Alcance
Define tres cosas antes de comenzar:
Ventana de tiempo. Audita los últimos 90 días. Esto captura patrones de uso habitual sin ir tan atrás que los datos estén desactualizados. La adopción de herramientas de IA se está acelerando — los patrones de uso de hace seis meses podrían no reflejar el comportamiento actual.
Alcance organizacional. Decide si esta es una auditoría de toda la empresa o un enfoque por departamentos. Si tienes recursos limitados, empieza con los departamentos que manejan los datos más sensibles: legal, RRHH, finanzas, ingeniería y equipos que dan la cara al cliente.
Resultado deseado. La auditoría debería producir tres entregables: (1) un inventario de todas las herramientas de IA en uso, (2) una clasificación de riesgo de cada herramienta basada en sensibilidad de datos, y (3) una lista de acciones de remediación inmediata ordenadas por riesgo.
Fase 1: Análisis de Tráfico de Red
Los logs de red son tu fuente de datos más objetiva. Muestran lo que realmente pasó, no lo que los empleados recuerdan o eligen divulgar.
Qué buscar
Monitorea conexiones salientes a dominios conocidos de servicios de IA. La siguiente lista cubre los servicios principales a marzo de 2026, pero nuevas herramientas aparecen mensualmente — actualiza esta lista trimestralmente.
| Servicio de IA | Dominios a Monitorear |
|---|---|
| OpenAI / ChatGPT | chat.openai.com, api.openai.com, cdn.openai.com |
| Anthropic / Claude | claude.ai, api.anthropic.com, console.anthropic.com |
| Google Gemini | gemini.google.com, generativelanguage.googleapis.com, aistudio.google.com |
| Perplexity | perplexity.ai, api.perplexity.ai |
| xAI / Grok | grok.x.ai, x.com/i/grok |
| Mistral | chat.mistral.ai, api.mistral.ai |
| Cohere | coral.cohere.com, api.cohere.ai |
| Hugging Face | huggingface.co, api-inference.huggingface.co |
| Poe | poe.com |
| Character.AI | character.ai |
| Jasper | app.jasper.ai |
| Copy.ai | app.copy.ai |
| Notion AI | notion.so (busca llamadas API específicas de IA) |
| GitHub Copilot | copilot.github.com, copilot-proxy.githubusercontent.com |
| Cursor AI | cursor.sh, api2.cursor.sh |
| Codeium | codeium.com, server.codeium.com |
Cómo extraer estos datos
- Logs de firewall: Exporta logs de conexión de tu firewall o appliance UTM. Filtra por los dominios anteriores. La mayoría de firewalls empresariales (Palo Alto, Fortinet, Sophos) pueden exportar a CSV o SIEM.
- Logs de consultas DNS: Si ejecutas DNS interno, los logs de consultas muestran cada búsqueda de dominio independientemente de si la conexión se completó. Esto detecta herramientas que los empleados intentaron acceder incluso si el firewall las bloqueó.
- Logs de proxy: Si enrutas tráfico web a través de un proxy (Zscaler, Netskope, etc.), tienes visibilidad completa a nivel de URL incluyendo tráfico HTTPS inspeccionado.
- Agregación SIEM: Si tienes un SIEM (Splunk, Sentinel, Elastic), crea un dashboard que agregue conexiones a los dominios anteriores, agrupados por IP de origen a mapeo de usuario.
Qué te dice esto
El análisis de red te da las herramientas en uso, la frecuencia de uso y los usuarios (vía mapeo IP-a-usuario desde tu servicio de directorio). No te dice qué datos se enviaron — eso requiere inspección DLP, que se cubre en la Fase 5.
Fase 2: Auditoría de Extensiones de Navegador
Las extensiones de navegador con IA son un vector significativo y a menudo pasado por alto. Los empleados instalan extensiones que leen contenido de páginas, capturan datos de formularios o interceptan contenido del portapapeles — y lo envían a servicios de IA externos para procesamiento.
Qué auditar
- Inventario de extensiones Chrome: Usa la Consola de Administración de Google (para Chrome administrado) o herramientas de gestión de endpoints (Intune, Jamf) para extraer una lista de extensiones instaladas en todos los dispositivos administrados.
- Inventario de extensiones Edge: Mismo proceso vía Microsoft Endpoint Manager.
- Categorías de extensiones a señalar: Cualquier extensión con permisos para "Leer y cambiar todos tus datos en todos los sitios web," "Leer tu historial de navegación," o "Modificar datos que copias y pegas."
Extensiones de IA comunes a buscar
- Extensiones de navegador de ChatGPT (múltiples variantes de terceros)
- Merlin (GPT-4 en navegador)
- Monica AI
- Sider AI
- MaxAI.me
- UseChatGPT.AI
- Compose AI
- Writesonic
- Grammarly (funcionalidades de IA — puede estar sancionado, verificar)
- Otter.ai (transcripción de reuniones — a menudo instalado individualmente)
Evaluación de riesgo
Las extensiones que tienen permisos de "leer todos los datos del sitio" pueden capturar datos de aplicaciones web internas (tu CRM, ERP, intranet, repositorios de código) y enviarlos a servidores externos. Esto es un riesgo mayor que los empleados pegando datos manualmente en ChatGPT, porque ocurre de forma pasiva y continua.
Fase 3: Análisis de Gasto SaaS
Las suscripciones individuales de IA aparecen en reportes de gastos y en tarjetas de crédito corporativas. Este es un método de detección simple pero efectivo.
Dónde buscar
- Reportes de gastos: Busca solicitudes de reembolso que contengan "OpenAI," "ChatGPT," "Claude," "Anthropic," "Jasper," "Copy.ai," "Midjourney," "Runway," o "AI" en la descripción.
- Estados de tarjeta de crédito corporativa: Ejecuta la misma búsqueda de palabras clave en todas las transacciones de tarjetas corporativas de los últimos 90 días.
- Sistema de adquisiciones: Verifica si algún equipo ha presentado solicitudes de compra de herramientas de IA fuera de tu proceso estándar de adquisiciones.
- Cargos de app store: Para organizaciones que reembolsan compras de apps móviles, verifica suscripciones a apps de IA (ChatGPT Plus a $20/mes es la más común).
Qué te dice esto
El análisis de gasto SaaS identifica a los empleados que están lo suficientemente comprometidos con las herramientas de IA como para pagarlas. Estos son típicamente tus usuarios más pesados y los que envían más datos. También son, de forma importante, los que tendrán las opiniones más fuertes sobre lo que una alternativa sancionada necesita hacer.
Fase 4: Encuesta a Empleados
Los logs de red te dicen qué herramientas se están usando. Una encuesta a empleados te dice por qué se están usando y qué datos se están procesando. Ambas son necesarias.
Principios de diseño de la encuesta
- Anónima. Si los empleados temen castigo, no divulgarán su uso. Haz la encuesta explícitamente anónima y enmárcala como un ejercicio de descubrimiento, no una investigación.
- Específica. No preguntes "¿Usas herramientas de IA?" Pregunta "En los últimos 30 días, ¿has usado alguna de las siguientes herramientas para tareas relacionadas con el trabajo?" y lista herramientas específicas.
- Enfocada en datos. Pregunta qué categorías de datos han usado con herramientas de IA: código fuente, datos de clientes, datos financieros, datos de RRHH, documentos legales, comunicaciones internas, notas de reuniones.
Preguntas de ejemplo
- ¿Qué herramientas de IA has usado para tareas relacionadas con el trabajo en los últimos 30 días? (Selecciona todas las que apliquen — lista herramientas específicas)
- ¿Con qué frecuencia usas herramientas de IA para el trabajo? (Diariamente / Varias veces por semana / Semanalmente / Mensualmente / Raramente)
- ¿Para qué tipos de tareas laborales usas herramientas de IA? (Escritura/edición, desarrollo de código, análisis de datos, investigación, resumen, traducción, otro)
- ¿Qué tipos de datos de la empresa has ingresado en herramientas de IA? (Código fuente, información de clientes, datos financieros, datos de RRHH/personal, documentos legales, notas de reuniones, comunicaciones internas, ninguno, otro)
- ¿Usas una cuenta personal o una cuenta proporcionada por la empresa para herramientas de IA?
- ¿Qué te impide usar herramientas de IA aprobadas por la empresa? (No existen herramientas aprobadas, las herramientas aprobadas son muy limitadas, las herramientas aprobadas son muy lentas, no sabía que existían herramientas aprobadas, otro)
- Si la empresa proporcionara un asistente de IA interno con capacidades equivalentes, ¿lo usarías en lugar de herramientas externas?
La pregunta 6 es crítica. Te dice por qué la alternativa sancionada (si tienes una) no está siendo adoptada, o confirma que no tienes una.
Fase 5: Revisión de Políticas DLP
La mayoría de organizaciones tienen políticas de Prevención de Pérdida de Datos configuradas para email, USB y almacenamiento en la nube. Muy pocas han extendido esas políticas para cubrir el uso de herramientas de IA.
Audita tu configuración DLP actual
- ¿Tu política DLP monitorea las subidas del navegador? Específicamente, ¿inspecciona contenido siendo enviado vía envíos de formularios o llamadas API a dominios de servicios de IA?
- ¿Tu política DLP cubre operaciones de portapapeles? Copiar-pegar en una herramienta de IA basada en navegador es el método más común de exfiltración de datos para shadow AI.
- ¿Los dominios de servicios de IA están en el alcance de monitoreo de tu DLP? La mayoría de soluciones DLP pueden configurarse para señalar o bloquear subidas a dominios específicos. Verifica si los dominios de IA de la Fase 1 están incluidos.
- ¿Qué categorías de clasificación de datos activan alertas? Asegura que tus clasificaciones DLP (PII, PHI, datos financieros, código fuente, privilegio legal) se apliquen a destinos de herramientas de IA, no solo a email y almacenamiento en la nube.
Evaluación de brechas
Si tu DLP no cubre las subidas a herramientas de IA, tienes una brecha de monitoreo. Cuantifícala: basándote en los datos de red de la Fase 1, ¿cuántas conexiones por día se están haciendo a servicios de IA, y qué porcentaje de esas podría involucrar datos sensibles basándote en los roles de los usuarios que hacen esas conexiones?
Fase 6: Auditoría de Claves API
Los desarrolladores y equipos técnicos pueden estar usando servicios de IA de forma programática, incrustando claves API en repositorios de código, archivos de entorno, pipelines CI/CD o scripts. Este uso es más difícil de detectar a través del monitoreo de red porque puede ejecutarse en máquinas de desarrollo, servidores CI o infraestructura en la nube.
Dónde buscar
- Repositorios de código: Busca cadenas como
sk-,sk-proj-,OPENAI_API_KEY,ANTHROPIC_API_KEY,GOOGLE_API_KEYen todos los repositorios Git internos (GitHub, GitLab, Bitbucket). - Archivos de entorno: Busca archivos
.env,.env.local,.env.productionque contengan claves API de servicios de IA. - Secretos CI/CD: Revisa los secretos almacenados en GitHub Actions, GitLab CI, Jenkins o tu plataforma CI/CD para credenciales de servicios de IA.
- Herramientas de escaneo de secretos: Si usas un escáner de secretos (GitGuardian, TruffleHog, gitleaks), verifica si los patrones de claves API de IA están incluidos en las reglas de escaneo.
- Infraestructura en la nube: Verifica AWS Secrets Manager, Azure Key Vault o GCP Secret Manager para credenciales de servicios de IA que puedan haber sido aprovisionadas fuera del proceso estándar de adquisiciones.
Evaluación de riesgo
El uso de claves API típicamente involucra procesamiento de datos automatizado o semi-automatizado, lo que significa mayores volúmenes de datos siendo enviados a servicios de IA externos. Un desarrollador ejecutando un script que procesa 10,000 registros de clientes a través de la API de OpenAI es una exposición de mayor volumen que el mismo desarrollador pegando manualmente unos pocos registros en ChatGPT.
La Lista Maestra de Verificación
Usa esta lista de verificación para rastrear el completado de la auditoría. Cada elemento debe marcarse como completado con hallazgos documentados.
| # | Elemento de Auditoría | Fase | Estado |
|---|---|---|---|
| 1 | Exportar logs de firewall/proxy de los últimos 90 días | Red | ☐ |
| 2 | Filtrar logs por todos los dominios conocidos de servicios de IA | Red | ☐ |
| 3 | Mapear IPs de origen a cuentas de usuario vía servicio de directorio | Red | ☐ |
| 4 | Contar usuarios únicos y frecuencia por servicio de IA | Red | ☐ |
| 5 | Verificar logs de consultas DNS para dominios de IA no en logs de firewall | Red | ☐ |
| 6 | Extraer inventario de extensiones de navegador instaladas de todos los dispositivos administrados | Extensiones | ☐ |
| 7 | Señalar extensiones con permisos de "leer todos los datos del sitio" o portapapeles | Extensiones | ☐ |
| 8 | Cruzar extensiones señaladas contra lista conocida de extensiones de IA | Extensiones | ☐ |
| 9 | Buscar en reportes de gastos reembolsos de herramientas de IA (últimos 90 días) | Gasto SaaS | ☐ |
| 10 | Buscar en transacciones de tarjeta corporativa cargos de servicios de IA | Gasto SaaS | ☐ |
| 11 | Verificar sistema de adquisiciones para solicitudes no aprobadas de herramientas de IA | Gasto SaaS | ☐ |
| 12 | Verificar reembolsos de apps móviles para suscripciones de IA | Gasto SaaS | ☐ |
| 13 | Diseñar y distribuir encuesta anónima de uso de IA a empleados | Encuesta | ☐ |
| 14 | Analizar resultados de encuesta: herramientas usadas, tipos de datos, frecuencia | Encuesta | ☐ |
| 15 | Identificar departamentos con mayor adopción de shadow AI | Encuesta | ☐ |
| 16 | Identificar categorías de datos más comúnmente pegadas en herramientas de IA | Encuesta | ☐ |
| 17 | Verificar que políticas DLP cubran subidas de navegador a dominios de IA | DLP | ☐ |
| 18 | Verificar que DLP cubra operaciones de portapapeles/pegado a sitios de IA | DLP | ☐ |
| 19 | Confirmar que dominios de servicios de IA están en alcance de monitoreo DLP | DLP | ☐ |
| 20 | Confirmar que clasificaciones de datos sensibles aplican a egreso de IA | DLP | ☐ |
| 21 | Escanear todos los repositorios de código para claves API de IA | Claves API | ☐ |
| 22 | Buscar archivos .env en entornos de desarrollo | Claves API | ☐ |
| 23 | Auditar secretos CI/CD para credenciales de servicios de IA | Claves API | ☐ |
| 24 | Verificar almacenes de secretos en la nube para credenciales API de IA | Claves API | ☐ |
| 25 | Compilar hallazgos en inventario clasificado por riesgo con prioridades de remediación | Final | ☐ |
Interpretando los Resultados
Después de completar las seis fases, tendrás tres categorías de hallazgos:
Categoría 1: Herramientas sancionadas conocidas con brechas de política
Estas son herramientas que la organización ha aprobado (por ejemplo, GitHub Copilot, Grammarly) pero donde el uso excede el alcance aprobado. Por ejemplo, Copilot está aprobado para sugerencias de código pero los desarrolladores también están pegando datos de clientes en ChatGPT para depuración. La herramienta está sancionada; el patrón de uso no lo está.
Acción: Actualiza las políticas para aclarar uso aprobado vs. no aprobado de herramientas sancionadas. Actualiza reglas DLP para aplicar restricciones de categoría de datos.
Categoría 2: Herramientas no sancionadas con baja sensibilidad de datos
Estas son herramientas de IA de consumo siendo usadas para tareas que no involucran datos sensibles — reformular emails, generar plantillas de agenda de reuniones, lluvia de ideas. Las herramientas no están aprobadas, pero el riesgo de datos es bajo.
Acción: Decide si sancionar estas herramientas (si el costo es mínimo y el riesgo es bajo) o redirigir este uso a una alternativa interna. No sobreactúes ante uso de bajo riesgo — tratar el uso benigno de productividad como un incidente de seguridad daña la confianza e impulsa el comportamiento a la clandestinidad.
Categoría 3: Herramientas no sancionadas con alta sensibilidad de datos
Este es el hallazgo crítico. Datos sensibles — código fuente, PII de clientes, datos financieros, documentos legales — fluyendo hacia herramientas de IA de consumo a través de cuentas personales sin controles organizacionales.
Acción: Esto requiere remediación inmediata. El orden de prioridad es:
-
Despliega una alternativa sancionada on-premise para los casos de uso específicos identificados. Si los desarrolladores están pegando código en ChatGPT, necesitan un asistente de codificación con IA interno. Si los equipos legales están resumiendo contratos, necesitan una herramienta interna de análisis de documentos con IA. Consulta How to Build a Sanctioned AI Alternative to ChatGPT for Your Enterprise.
-
Actualiza políticas DLP para bloquear o alertar sobre subidas de datos sensibles a dominios de IA no sancionados.
-
Comunica con los equipos afectados — no punitivamente, sino para explicar el riesgo e introducir la alternativa sancionada.
-
Establece monitoreo continuo para detectar la adopción de nuevas herramientas de shadow AI antes de que alcance la escala que acabas de descubrir.
Después de la Auditoría: Construyendo el Plan de Remediación
La auditoría no es el final — es la entrada para un plan de remediación. Ese plan debería abordar cuatro áreas:
Alternativas sancionadas. Para cada patrón de uso de alto riesgo identificado, determina qué herramienta sancionada o despliegue interno lo reemplazará. El objetivo no es eliminar el uso de IA — es mover el uso de IA a infraestructura que controlas.
Política. Redacta o actualiza tu política de uso de IA para reflejar lo que la auditoría reveló. Una política que no aborda las herramientas y casos de uso reales que los empleados están usando es una política que será ignorada.
Monitoreo. Implementa monitoreo continuo para las seis categorías auditadas anteriormente. La auditoría es una foto instantánea; el monitoreo proporciona visibilidad continua. Establece una cadencia trimestral para repetir la auditoría completa.
Capacitación. Usa los hallazgos de la auditoría (anonimizados) para construir materiales de capacitación. Mostrar a los empleados que más de 45 herramientas de IA se están usando en la organización, con tipos específicos de datos en riesgo, es más persuasivo que la capacitación abstracta de seguridad.
Cadencia de Auditoría
El shadow AI no es un problema único. Nuevas herramientas de IA se lanzan semanalmente, los patrones de adopción de los empleados cambian, y la frontera entre sancionado y no sancionado se difumina a medida que los equipos experimentan.
Ejecuta la auditoría completa trimestralmente. Entre auditorías completas, mantén monitoreo continuo vía logs de red y alertas DLP. Actualiza la lista de dominios de servicios de IA mensualmente.
Para el contexto más amplio sobre por qué el shadow AI es un riesgo de $19.5M y la solución estructural más allá de la auditoría, consulta Shadow AI: The $19.5M Enterprise Risk Your Security Team Can't See.
Turn unstructured data into AI-ready datasets — without it leaving the building.
On-premise data preparation with full audit trail. No data egress. No fragmented toolchains. EU AI Act Article 30 compliance built in.
Keep reading

Shadow AI: The $19.5M Enterprise Risk Your Security Team Can't See
77% of employees paste company data into unsanctioned AI tools. The average cost of insider risks tied to shadow AI is $19.5M per organization — a 20% spike in two years. Here's what's being leaked, why it's happening, and the structural fix.

77% of Employees Are Leaking Data to AI Tools: What CISOs Need to Know
Most employees are pasting sensitive company data into external AI tools. The numbers are worse than you think, and blocking access only pushes usage underground. Here's what actually works.

Shadow AI Policy Template for Regulated Industries
A practical, immediately usable AI acceptable use policy template for healthcare, financial services, and other regulated organizations. Includes data classification tables, regulatory overlays, and enforcement frameworks.