
Human-in-the-Loop vs. Human-on-the-Loop vs. Human-out-of-the-Loop: Cuál Es la Diferencia
Tres términos que suenan similar pero representan perfiles de riesgo fundamentalmente diferentes. Entender la distinción importa más que nunca a medida que la IA avanza hacia decisiones de alto riesgo.
A principios de 2026, OpenAI firmó un contrato con el Departamento de Defensa de EE.UU. para proporcionar servicios de IA para aplicaciones militares. Anthropic declinó un acuerdo similar, citando preocupaciones sobre la autonomía de la IA en la toma de decisiones letales. El punto específico de desacuerdo, en ambos casos, fue una pregunta que suena académica hasta que deja de serlo: dónde se ubica el humano en relación con la decisión?
Esa pregunta — y su respuesta — es lo que separa human-in-the-loop de human-on-the-loop de human-out-of-the-loop. Los términos se usan indistintamente por proveedores que deberían saber mejor. No son intercambiables. Representan estructuras de control, perfiles de riesgo y posturas regulatorias fundamentalmente diferentes.
Definiciones Precisas
Human-in-the-Loop (HITL)
El humano debe actuar antes de que el sistema proceda. La IA propone una decisión, una acción recomendada o una clasificación. El sistema entonces se detiene y espera. Un humano calificado revisa la salida de la IA y la aprueba, modifica o rechaza. Solo entonces se ejecuta la acción.
La palabra clave es "se detiene". La IA no puede proceder sin autorización humana explícita.
Ejemplos: Un radiólogo que debe aprobar un escaneo de imágenes señalado por IA antes de que el resultado entre al expediente del paciente. Un oficial de crédito que debe aprobar o denegar una solicitud de préstamo después de revisar la puntuación y el razonamiento de la IA. Un farmacéutico que debe confirmar una recomendación de dosificación de medicamento antes de que se administre.
Human-on-the-Loop (HOTL)
La IA actúa autónomamente. Un humano monitorea las salidas del sistema y tiene la capacidad de intervenir — pero la acción ocurre antes de que el humano decida nada. El rol del humano es vigilancia y anulación, no aprobación.
Ejemplos: Un algoritmo de trading autónomo que ejecuta órdenes mientras un trader observa un dashboard. Una IA de moderación de contenido que elimina publicaciones inmediatamente, con un moderador humano capaz de revertir decisiones dentro de una ventana de 24 horas. Un sistema automatizado de campañas de correo electrónico con un supervisor humano que puede detenerlo si las métricas de respuesta se ven incorrectas.
Human-out-of-the-Loop (HOOTL)
Completamente autónomo. Ningún humano está involucrado en decisiones individuales. Los humanos establecen los parámetros y pueden revisar el rendimiento agregado, pero el sistema funciona sin participación humana por decisión.
Ejemplos: Un filtro de spam que enruta correo sin revisión humana. Un sistema de detección de fraude en tiempo real que bloquea transacciones en milisegundos. Un motor de recomendación de productos que personaliza contenido para millones de usuarios simultáneamente.
Comparación Lado a Lado
| Dimensión | HITL | HOTL | HOOTL |
|---|---|---|---|
| Quién decide | Humano (IA recomienda) | IA (humano puede anular) | Solo IA |
| Latencia de decisión | Velocidad humana | Velocidad de IA | Velocidad de IA |
| Recuperación de errores | Pre-acción: errores bloqueados | Post-acción: errores reversibles si se detectan | Post-acción: errores pueden acumularse sin detección |
| Postura regulatoria | Requerido para IA de alto riesgo (Ley de IA de la UE, FDA SaMD Clase II/III) | Aceptado para riesgo medio con registro de auditoría | Aceptado solo para decisiones de bajo riesgo, baja consecuencia |
| Confianza requerida | Menor (humano valida cada decisión) | Mayor (humano debe confiar en comportamiento de IA) | Máxima (confianza total en integridad del sistema de IA) |
| Nivel de riesgo apropiado | Alta consecuencia, baja reversibilidad | Consecuencia media, reversible | Baja consecuencia o alta frecuencia, bajas apuestas |
La Pregunta OpenAI/DoD
El debate sobre el contrato de OpenAI con el DoD y la negativa de Anthropic fue, en su esencia, un desacuerdo sobre dónde en este espectro deberían ubicarse los sistemas militares de IA.
Los sistemas de armas autónomos — sistemas que identifican y atacan objetivos sin autorización humana por objetivo — son HOOTL por definición. Un humano establece las reglas de enfrentamiento; la IA ejecuta. Ningún humano aprueba la decisión individual de selección de objetivo.
Los sistemas de armas HOTL tienen un humano observando pero no bloqueando. El humano podría intervenir, pero el sistema dispara por defecto a menos que se anule. En la práctica, la ventana de latencia para enfrentamientos militares a menudo hace que HOTL sea funcionalmente equivalente a HOOTL.
La posición pública de Anthropic fue que los sistemas de IA que toman decisiones letales requieren autorización humana a nivel de acción individual — HITL. Eso no es una sutileza filosófica. Es un requisito arquitectónico específico.
La razón por la que esto importa para compradores empresariales de IA: frecuentemente estás usando los mismos modelos fundacionales, las mismas APIs y las mismas relaciones con proveedores que las aplicaciones de defensa. Los frameworks de gobernanza que tu proveedor ha elegido construir para sus casos de uso de mayor riesgo señalan cómo piensan sobre la supervisión humana para todos los casos de uso. Vale la pena entenderlo.
El Problema del Sesgo de Automatización
Lo más difícil de HOTL es que es menos autónomo de lo que parece en papel.
Décadas de investigación en factores humanos muestran que cuando los humanos monitorean sistemas autónomos, sistemáticamente confían demasiado en ellos. El sesgo de automatización lleva a las personas a:
- No detectar errores del sistema que habrían detectado si realizaran la tarea manualmente
- Aceptar recomendaciones de IA sin involucrar su juicio independiente
- Responder más lentamente y con menor precisión a anomalías porque monitorear es cognitivamente diferente a decidir
Un estudio de 1999 sobre sistemas automatizados de cabina encontró que los pilotos que estaban "monitoreando" la automatización no detectaron fallas simuladas que habrían detectado al volar manualmente. El mismo fenómeno aparece en radiología, donde los lectores que revisan imágenes señaladas por IA detectan menos cánceres que los lectores que no han visto la anotación de la IA. La IA ancla su percepción.
Lo que esto significa en la práctica: los sistemas HOTL frecuentemente se convierten en sistemas HOOTL de facto, porque el monitor humano se vuelve un observador pasivo en lugar de un revisor activo.
Esta es la razón por la que las industrias reguladas cada vez más requieren HITL en lugar de aceptar HOTL como supervisión equivalente. Un humano que puede anular pero casi nunca lo hace porque la IA siempre parece correcta no es un control significativo.
Posiciones Regulatorias
FDA (SaMD): Los Software como Dispositivo Médico de Clase II y Clase III deben proporcionar soporte de decisión que un clínico calificado revise y sobre el que actúe. La IA clínica autónoma que actúa sin aprobación del clínico no es aprobable para estas clases de riesgo. Este es un requisito HITL.
Federal Reserve SR 11-7: Requiere "desafío efectivo" — humanos calificados que puedan evaluar independientemente las salidas, suposiciones y limitaciones de los modelos de IA. Un dashboard de monitoreo que nadie interroga significativamente no satisface el estándar de desafío efectivo de SR 11-7. La expectativa está más cerca de HITL que de HOTL para decisiones financieras consecuentes.
Ley de IA de la UE: Los sistemas de IA de alto riesgo deben permitir a los humanos "monitorear, comprender y anular efectivamente" las salidas de IA. La palabra clave es "efectivamente" — no teóricamente posible de anular, sino realmente diseñado para intervención significativa. Los reguladores han indicado que los sistemas HOTL que son funcionalmente HOOTL en la práctica no satisfarán este estándar.
ABA Model Rules 5.1 y 5.3: Los abogados siguen siendo responsables de supervisar el trabajo producido usando herramientas de IA. "Lo delegué a la IA" no es una defensa en una queja ante el colegio. Esto efectivamente requiere HITL para cualquier salida de IA utilizada en representación legal.
Cuándo HOTL y HOOTL Son Apropiados
No toda decisión justifica HITL. La arquitectura es costosa — en tiempo humano, en latencia, en infraestructura. El modelo correcto depende de dos factores: severidad de consecuencia y reversibilidad.
HOOTL es apropiado cuando: las decisiones son de alta frecuencia, baja consecuencia y fácilmente reversibles. Filtrado de spam. Recomendaciones de productos. Ranking de búsqueda interna. Si la IA se equivoca, los usuarios ven un resultado irrelevante o un falso positivo se limpia de una carpeta de spam. La tasa de error es manejable y el costo de la revisión humana supera con creces el costo de errores ocasionales.
HOTL es apropiado cuando: las decisiones son de consecuencia media, mayormente reversibles, y la ventana de acción permite revisión humana significativa. Correos de marketing automatizados con una ventana de intervención de 48 horas. Retenciones de fraude que pueden ser liberadas por un representante de servicio al cliente. Publicaciones programadas en redes sociales con un dashboard de monitoreo.
HITL es requerido cuando: la decisión es de alta consecuencia, difícil o imposible de revertir, y el costo del error excede la carga de la revisión humana. Decisiones clínicas. Determinaciones financieras que afectan el sustento de las personas. Escritos legales. Cualquier cosa donde estar equivocado crea responsabilidad regulatoria, ética o legal.
Un Framework de Madurez
Las organizaciones que despliegan IA por primera vez a menudo comienzan en HITL incluso para decisiones de bajo riesgo — la carga vale la confianza. A medida que acumulan datos de historial y validan el rendimiento del modelo, pueden migrar los tipos de decisiones de menor riesgo hacia HOTL y HOOTL.
La progresión de madurez se ve así:
- Todas las decisiones HITL — construir la línea base, entender las tasas de error, validar el rendimiento de la IA
- Segmentar por riesgo — mover decisiones de alta confianza y baja consecuencia a HOTL o HOOTL
- Monitoreo continuo — mantener muestreo HITL incluso para decisiones HOOTL para detectar deriva
- Recalibrar regularmente — el cambio de distribución, actualizaciones de modelo y cambios de proceso pueden mover una decisión que era segura en HOOTL de vuelta al territorio HITL
El movimiento no siempre es hacia más autonomía. Las condiciones cambian. Las regulaciones cambian. Los modelos se degradan. Un framework de gobernanza necesita soportar mover decisiones hacia arriba en la pila tanto como hacia abajo.
Para la guía completa de implementación sobre el diseño de flujos de trabajo HITL, consulta ¿Qué Es Human-in-the-Loop AI? — el artículo central de este pilar cubre frameworks de niveles de riesgo, los tres tipos de HITL y requisitos regulatorios en todas las industrias.
La Conclusión
HITL, HOTL y HOOTL no son sinónimos de "tenemos humanos involucrados de alguna manera". Describen dónde en la cadena de decisión un humano puede realmente afectar el resultado. En IA empresarial de alto riesgo — salud, legal, servicios financieros, defensa — la distinción es la diferencia entre IA gobernada y responsabilidad.
Los proveedores que confunden estos términos están confundidos o esperan que tú lo estés.
Ertas Data Suite está construido para equipos que necesitan pipelines de IA genuinamente compatibles con HITL: preparación de datos on-premise, anotación registrada por operador, registro de auditoría completo y sin salida de datos. La arquitectura asume que los expertos humanos están en el ciclo en cada etapa — porque eso es lo que las regulaciones requieren y lo que el riesgo demanda.
La pregunta no es si involucrar humanos en tus decisiones de IA. La pregunta es si tu arquitectura actual hace que esa participación sea significativa o teatral.
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.
Keep reading

AI in the Loop vs. AI in Command: A Framework for High-Stakes Environments
A clear framework for distinguishing advisory AI from decision-making AI — and understanding when each is appropriate. The stakes determine the structure.

What Is Human-in-the-Loop AI? A Practical Guide for Enterprise Teams
Human-in-the-loop AI keeps humans in the decision chain — but the details matter. Here's what HITL actually means in practice and why it's non-negotiable in regulated industries.

The Difference Between AI Assistance and AI Autonomy in High-Stakes Decisions
AI assistance augments human judgment. AI autonomy replaces it. The line between them is where accountability lives — and most AI deployments don't have a clear answer about which side they're on.