
Human-in-the-Loop para IA Legal: Por Qué la Revisión del Abogado No Es Solo una Casilla de Cumplimiento
Colegios de abogados, aseguradoras de mala praxis y tribunales hacen la misma pregunta: quién es responsable cuando la IA se equivoca? La respuesta requiere una supervisión significativa del abogado en el ciclo.
En mayo de 2023, dos abogados presentaron un escrito en un tribunal federal en Nueva York que citaba seis casos. Ninguno de los casos existía. Habían sido generados por ChatGPT, que produjo citas de apariencia plausible — completas con nombres de casos, reporteros y números de página — que no correspondían a nada en Westlaw o Lexis. Los abogados le dijeron al tribunal que no habían verificado las citas de forma independiente, asumiendo que la salida de la IA era confiable. El tribunal sancionó a ambos abogados.
Ese caso fue ampliamente cubierto como un fallo tecnológico. No lo fue. Fue un fallo de HITL. La IA hizo lo que la IA generativa hace cuando se le pide citar jurisprudencia sin generación aumentada por recuperación: confabuló. Los abogados tenían la obligación profesional de verificar las citas. No lo hicieron. El proceso human-in-the-loop que la ley requiere — y que los seguros de mala praxis y las reglas de ética de los colegios siempre han requerido — estaba ausente.
La tecnología cambió. La obligación profesional no.
Lo Que Realmente Dice la Guía de los Colegios de Abogados
Para 2026, todos los principales colegios de abogados en EE.UU. han emitido guía formal sobre el uso de IA por abogados. El lenguaje difiere. La sustancia no.
ABA Model Rule 1.1 requiere que los abogados mantengan competencia, lo cual el Comité Permanente de Ética y Responsabilidad Profesional de la ABA ha extendido explícitamente para incluir la comprensión de las herramientas de IA utilizadas en la representación — incluyendo sus limitaciones y modos de falla.
ABA Model Rule 5.1 hace responsables a los abogados supervisores del trabajo de los subordinados. La Opinión Formal 512 de 2023 de la ABA aclaró que las herramientas de IA no son subordinados — son herramientas — pero el trabajo que producen es trabajo del abogado. La responsabilidad de supervisión no se descarga ejecutando una IA y revisando la salida de la manera en que un socio hojea el memorando de un asociado. El abogado debe estar en posición de validar el razonamiento legal, no solo el formato.
ABA Model Rule 5.3 se aplica a la asistencia de no abogados. Si bien la IA no es un no abogado en el sentido estatutario, el Comité ha interpretado los requisitos de supervisión de la regla como aplicables al producto de trabajo generado por IA. El abogado no puede deslindar responsabilidad por la salida de IA utilizada en un asunto.
ABA Model Rule 1.6 (confidencialidad) tiene implicaciones adicionales para la IA basada en la nube: los datos del cliente no pueden divulgarse a terceros sin consentimiento informado, y subir documentos confidenciales a un servicio de IA de terceros puede constituir divulgación.
La conclusión práctica: un abogado que usa IA y no verifica la salida de forma independiente no ha cumplido su responsabilidad profesional. "La IA me lo dijo" no es una defensa en un procedimiento disciplinario.
Tres Casos Donde la Falla de HITL Creó Responsabilidad
1. Citas Alucinadas Presentadas en Tribunal
El caso de Nueva York de 2023 fue la primera instancia ampliamente publicada, pero no la última. Desde entonces, abogados en California, Texas y múltiples distritos federales han enfrentado sanciones por presentar documentos generados por IA que contenían citas fabricadas, estatutos inexistentes o resoluciones mal citadas.
En cada caso, la salida de la IA pasó una revisión superficial: las citas parecían reales, el formato era correcto, el lenguaje era seguro. Un HITL significativo — verificación independiente en Westlaw de cada autoridad citada — habría detectado cada error. Ninguno de los abogados realizó esa verificación.
2. Contratos Redactados por IA con Provisiones Faltantes
Una firma de capital privado mediana usó una herramienta de redacción de contratos con IA para generar una serie de acuerdos operativos de empresas de portafolio. La IA incluyó de forma confiable las provisiones estándar. Omitió — consistentemente, en 14 documentos — una provisión específica de derechos de arrastre que no era estándar pero era requerida por el LPA del fondo.
La omisión no se detectó en la firma. Surgió durante una adquisición de empresa de portafolio dos años después cuando la provisión necesitaba ejecutarse. La cláusula faltante le costó al fondo la capacidad de forzar el consentimiento del accionista minoritario en la salida. La aseguradora de mala praxis pagó. La firma perdió al cliente.
Un abogado humano con experiencia en transacciones revisando el acuerdo por completitud — no solo la corrección de lo que estaba presente — habría detectado la brecha. La revisión que ocurrió validó lo que la IA produjo, no si estaba completo.
3. Registros de Privilegio Generados por IA Que Categorizaron Incorrectamente Documentos
Una revisión documental grande en un asunto de litigio comercial usó IA para categorizar 400,000 documentos por privilegio. La IA fue entrenada en un corpus general; no tenía conocimiento de las relaciones de privilegio específicas en este asunto — que ciertos ejecutivos de la empresa habían contratado abogados externos para una investigación paralela, y que las comunicaciones con esos abogados eran privilegiadas.
La IA categorizó esas comunicaciones como no privilegiadas. 847 documentos fueron producidos a la contraparte. El argumento de renuncia de privilegio que siguió consumió seis meses de práctica de mociones. La parte productora finalmente prevaleció por motivos de divulgación inadvertida — pero el costo del error superó con creces el costo de una revisión HITL correctamente estructurada del registro de privilegio.
Cómo Se Ve la Revisión Significativa del Abogado
Hay una diferencia entre revisar la salida de IA y verificarla independientemente.
Revisar significa leer lo que la IA produjo y evaluar si parece correcto. Esto es lo que hicieron los abogados sancionados en los casos de citas. Las citas parecían correctas.
Verificar independientemente significa comprobar cada afirmación fáctica o legal contra una fuente autorizada. Para citas legales, significa buscar cada caso en Westlaw o Lexis. Para provisiones contractuales, significa comparar contra una lista de verificación de términos requeridos para este tipo de transacción. Para argumentos legales, significa evaluar independientemente si las autoridades citadas realmente respaldan las proposiciones citadas.
El estándar para HITL en la práctica legal es la verificación independiente, no la revisión. La diferencia no es semántica. Un humano que revisa la salida de IA y un humano que la verifica independientemente detectarán errores diferentes a tasas muy diferentes.
Áreas de Práctica Donde las Apuestas Son Más Altas
Defensa penal: Un defensor público que usa IA para redactar mociones trabaja en un contexto donde los errores afectan directamente la libertad de una persona. Las reclamaciones de asistencia ineficaz de abogado ahora rutinariamente incluyen preguntas sobre si los argumentos legales generados por IA fueron validados independientemente.
Due diligence en M&A: Las herramientas de IA que resumen cronogramas contractuales, señalan provisiones de cambio material adverso e identifican representaciones y garantías faltantes son útiles — y peligrosas si el abogado confía en el resumen en lugar del documento. Los acuerdos de adquisición contienen provisiones donde la diferencia entre "material" y "materialmente adverso" puede ser una disputa de indemnización de $50M.
Trámites de inmigración: I-485, solicitudes de asilo y peticiones de visa contienen preguntas fácticas donde respuestas incorrectas generadas por IA — incluso inexactitudes menores — pueden resultar en denegación de solicitud, procedimientos de remoción o prohibiciones de futuros beneficios migratorios. El daño es a menudo irreversible y afecta la capacidad del cliente de permanecer en el país.
El Problema del Privilegio
El privilegio abogado-cliente protege las comunicaciones confidenciales entre un cliente y su abogado realizadas con el propósito de obtener asesoría legal. Protege el producto de trabajo del abogado — documentos preparados por o para el abogado en anticipación de litigio.
Cuando una IA hace un juicio legal independiente — analiza documentos, sintetiza estándares legales, recomienda un curso de acción — y el abogado simplemente adopta la salida sin análisis independiente, surge una pregunta de privilegio. Las impresiones mentales de quién se reflejan en el producto de trabajo? Si el abogado no puede explicar el razonamiento en el documento porque la IA lo generó y no siguió el razonamiento — solo la conclusión — la protección central de la doctrina de producto de trabajo (las impresiones mentales y teorías legales del abogado) puede no aplicarse.
Los tribunales no han resuelto completamente esta pregunta. Algunos han declinado extender la protección de producto de trabajo al análisis generado por IA que el abogado adoptó en su totalidad sin análisis independiente. La posición segura es clara: el juicio del abogado, no el de la IA, debe ser el que se refleje en cualquier documento que necesite protección de privilegio.
Revisión Documental: Cómo Debería Funcionar HITL
La revisión documental asistida por IA a gran escala es una de las aplicaciones HITL más maduras y defendibles en derecho — cuando se hace correctamente.
Un proceso de revisión asistida por IA defendible incluye:
- Framework de clasificación diseñado por abogado: Las categorías y definiciones son establecidas por un abogado con experiencia en el asunto, no derivadas del entrenamiento general de la IA.
- Validación del conjunto de entrenamiento: El abogado revisa y valida el conjunto semilla usado para entrenar el clasificador en los documentos específicos de este asunto.
- Muestreo estadístico: El abogado revisa muestras aleatorias de cada categoría — incluyendo predichos como no relevantes — para validar el rendimiento del modelo antes de la producción.
- Calibración continua: A medida que se revisan documentos, el abogado verifica puntualmente las clasificaciones de la IA a intervalos regulares. Si las tasas de error exceden el umbral, el modelo se reentrena.
- Aprobación de la metodología por el abogado: El abogado certifica la metodología de revisión, no solo la salida. Esto es lo que los tribunales y la contraparte revisan al impugnar la producción documental.
Ninguno de estos pasos requiere que el abogado revise cada documento. Sí requieren que el abogado sea dueño del proceso.
El Ángulo Ertas
Los documentos legales están entre los datos más sensibles en cualquier organización. Subirlos a un servicio de IA en la nube para etiquetado, resumen o preparación de datos de entrenamiento es a menudo éticamente impermisible bajo la Rule 1.6, prácticamente peligroso desde el punto de vista del privilegio, y a veces contractualmente prohibido por las cartas de compromiso con clientes.
Ertas Data Suite se ejecuta on-premise. El etiquetado, clasificación y preparación de datos de entrenamiento de documentos legales ocurre dentro de tu perímetro de seguridad. Los expertos de dominio — que en el contexto de un despacho legal significa abogados con experiencia en el asunto — anotan y validan datos directamente en la herramienta. Cada acción se registra con marcas de tiempo e identidad del revisor. Nada sale del edificio.
Para despachos legales y departamentos jurídicos que construyen herramientas de IA para revisión documental, análisis de contratos o investigación regulatoria, el pipeline de preparación de datos necesita satisfacer los mismos requisitos de confidencialidad que el sistema desplegado. Ertas está construido para ese requisito.
Para el framework fundamental de HITL en IA empresarial, consulta ¿Qué Es Human-in-the-Loop AI?. Para contexto sobre por qué los despachos legales abordan los servicios de IA de terceros con especial precaución, consulta nuestra cobertura sobre requisitos de confidencialidad en IA legal.
La revisión del abogado de la salida de IA no es una casilla de cumplimiento. Es el piso profesional y ético. Los colegios de abogados, los tribunales y las aseguradoras de mala praxis han dejado clara su posición. La pregunta para tu despacho o departamento legal es si tus flujos de trabajo de IA están diseñados para soportar una supervisión genuina del abogado — o diseñados para crear la apariencia de ella.
Turn unstructured data into AI-ready datasets — without it leaving the building.
On-premise data preparation with full audit trail. No data egress. No fragmented toolchains. EU AI Act Article 30 compliance built in.
Keep reading

AI Governance Framework for Law Firms: Privilege, Supervision, and Model Accountability
Law firms face unique AI governance requirements: attorney-client privilege, supervisory rules, confidentiality obligations, and court expectations around AI-assisted work product. Here's how to build the framework.

Human-in-the-Loop for Construction and Engineering AI: Site Safety, Structural Analysis, and BOQ Extraction
Construction AI is moving fast — site safety cameras, structural analysis tools, BOQ extraction. Here's what meaningful human oversight looks like on the job site and in the design office.

AI Governance Framework for Healthcare: HIPAA, FDA SaMD, and Clinical Oversight Requirements
A practical AI governance framework for healthcare organizations. Covers HIPAA compliance, FDA Software as a Medical Device requirements, clinical human-in-the-loop design, and audit trail specifications.