Human-in-the-Loop: la diferencia entre una IA que ayuda y una que decide sola

Por David Hurtado
Chief Possibility Officer (CPO) Fundador — Integrity-Led Futures | Integridad Artificial
Maestrando en Diseño de Futuros | Especialista en IA, Ciencia de Datos y Arquitecto de Soluciones


En el vocabulario de la inteligencia artificial existe un concepto que, en pocos años, ha pasado de ser un término técnico a ser una exigencia regulatoria y un estándar ético fundamental: Human-in-the-Loop. La idea es simple en su enunciado y compleja en su implementación: que en cualquier sistema de IA que tome decisiones que afecten a seres humanos, debe existir un punto en el proceso donde un ser humano con criterio, contexto y autoridad real puede revisar, cuestionar y revertir la decisión del sistema.

Lo que no es tan simple es lo que significa "real" en ese enunciado. Porque la mayoría de las organizaciones que dicen tener Human-in-the-Loop en sus sistemas de gestión algorítmica tienen algo diferente: tienen un humano que aprueba automáticamente lo que el algoritmo ya decidió. Un sello de goma sobre una decisión que ya fue tomada. Una firma sobre un proceso que ya ocurrió.

Eso no es Human-in-the-Loop. Es simulación de Human-in-the-Loop. Y la diferencia entre ambas es la diferencia entre gobernanza real y gobernanza cosmética.

Qué significa "supervisión humana significativa"

El AI Act europeo usa el término "supervisión humana significativa" para describir lo que exige en sistemas de IA de alto riesgo en entornos laborales. El adjetivo "significativa" es deliberado y tiene consecuencias operativas concretas.

Supervisión humana significativa implica que el ser humano a cargo:

Puede entender la decisión: no basta con que el sistema produzca un resultado y el humano lo valide. El humano debe poder comprender qué criterios generaron ese resultado, qué datos lo alimentaron y por qué el sistema llegó a esa conclusión. Sin comprensión, no hay supervisión genuina.

Tiene el tiempo real para revisar: una supervisión que consiste en un clic de aprobación sobre veinte decisiones en cinco minutos no es supervisión. Es procesamiento automatizado con firma humana. El tiempo asignado a la revisión debe ser proporcional a la complejidad de la decisión y a la significatividad de sus consecuencias para la persona afectada.

Tiene autoridad real para revertir: la supervisión humana existe en el papel pero no en la práctica si el humano que aprueba no tiene la autoridad organizacional real para cambiar el resultado del sistema. Si el sistema genera una recomendación de desvinculación y el supervisor que la "revisa" no puede rechazarla sin un proceso burocrático que toma semanas y requiere aprobaciones de tres niveles superiores, la supervisión es nominal.

Puede considerar contexto que el sistema no captura: el valor específico del juicio humano sobre el juicio algorítmico no es que sea más rápido o más preciso en general. Es que puede incorporar información que el sistema no tiene: conoce la historia particular del trabajador, el contexto de las últimas semanas, las circunstancias atenuantes que explican un bajo rendimiento puntual, las señales de alerta de salud mental que observó en las últimas reuniones.

Por qué el HITL falla en la práctica

Las razones por las que la supervisión humana se convierte en cosmética en la mayoría de las organizaciones son predecibles y corregibles:

El sistema genera demasiadas decisiones para que el humano pueda revisarlas todas: cuando el algoritmo genera cientos de evaluaciones, alertas o recomendaciones diariamente, el humano designado para "supervisar" tiene que elegir entre revisar superficialmente muchas o revisar profundamente pocas. La tentación de convertir la supervisión en un proceso de rubber-stamping es irresistible cuando el volumen es insostenible.

La solución de integridad no es pedir al humano que revise todo. Es diseñar el sistema para que solo las decisiones de alta consecuencia — evaluaciones que activan cambios de categoría, alertas de bajo rendimiento que pueden derivar en acciones disciplinarias, recomendaciones de desvinculación — requieran supervisión humana profunda. Las decisiones de rutina pueden operar con supervisión ligera o automatizada.

El humano no tiene la información que necesita para revisar: si el sistema genera un resultado y el supervisor solo ve el número final sin acceso a los datos que lo produjeron, la supervisión es imposible. El humano no puede cuestionar lo que no puede ver.

La solución es diseñar la interfaz del sistema para que la pantalla de supervisión muestre, para cada decisión crítica, los datos clave que la alimentaron, los factores de mayor peso y los casos comparables para contexto. El humano necesita herramientas para supervisar, no solo la obligación de hacerlo.

La cultura organizacional penaliza la reversión: si los supervisores que cuestionan las decisiones del sistema son percibidos como "obstruccionistas" o "poco eficientes", la cultura organizacional está desincentivando activamente la supervisión genuina. El HITL requiere que la organización valore explícitamente la intervención humana crítica sobre el sistema.

El HITL como mecanismo de confianza organizacional

Más allá de las obligaciones regulatorias y los imperativos éticos, el Human-in-the-Loop tiene un valor estratégico que las organizaciones frecuentemente subestiman: es el mecanismo que construye confianza institucional en los sistemas algorítmicos.

Los trabajadores no confían en los sistemas que no pueden ser cuestionados. La confianza en la tecnología de gestión — condición necesaria para que esa tecnología produzca los resultados que promete — depende en gran medida de la percepción de que hay seres humanos responsables detrás de las decisiones del sistema.

Cuando un trabajador sabe que hay un ser humano específico que puede revisar y revertir una decisión que considera injusta, su relación con el sistema cambia cualitativamente. Ya no es una relación de sometimiento a una autoridad inapelable. Es una relación de participación en un proceso que, aunque automatizado en su mayor parte, preserva la agencia humana en los momentos críticos.

Esa percepción tiene efectos medibles en el compromiso, en la disposición a aceptar los resultados del sistema y en la salud psicológica del trabajador. En el índice de Integridad Artificial, la dimensión de Human-in-the-Loop (D4) tiene un peso del 20% porque refleja exactamente este valor: no es solo un mecanismo de gobernanza, es un mecanismo de confianza.

Lo que el HITL no puede reemplazar

El Human-in-the-Loop es una condición necesaria para la Integridad Artificial, pero no es suficiente por sí solo. La tentación de confiar en que "hay humanos revisando" para declarar íntegro un sistema puede ser tan peligrosa como confiar ciegamente en el algoritmo.

El HITL funciona como mecanismo de integridad cuando se combina con transparencia algorítmica (el humano entiende qué está revisando), con equidad en los datos (el algoritmo no lleva sesgos que el humano inevitablemente reproduce) y con comunicación ética (las decisiones se comunican humanamente, no a través de notificaciones automatizadas).

Un sistema con HITL pero sin transparencia es un humano que firma lo que no entiende. Un sistema con HITL pero con sesgos no auditados es un humano que valida discriminación institucionalizada. Un sistema con HITL pero sin comunicación ética es un humano que aprueba un proceso que no llega humanamente al trabajador afectado.

La Integridad Artificial es un sistema de cinco dimensiones que se refuerzan mutuamente. El HITL es una de ellas, no la totalidad.

La pregunta práctica para los líderes

Si eres CHRO, CLO o CEO y tu organización usa sistemas algorítmicos para gestionar personas, hay una pregunta práctica que puedes hacerte ahora mismo: ¿Hay alguien en mi organización que tiene autoridad real y capacidad real para revertir una decisión del sistema sobre una persona, y lo ha hecho en el último trimestre?

Si nadie puede nombrarte a esa persona, o si la respuesta es que no ha ocurrido en el último año, tienes un sistema sin Human-in-the-Loop real, independientemente de lo que diga el manual de procedimientos.

Eso es lo primero que una auditoría de Integridad Artificial va a encontrar. Y es lo primero que el regulador va a preguntar cuando llegue a tu puerta.


Referencias

European Parliament. (2024). Regulation (EU) 2024/1689 on artificial intelligence (AI Act), Articles 9, 13–14. Official Journal of the European Union.

Gil, Y., Selman, B., Allen, J., Bhatt, M., Dietterich, T., Forbus, K., ... & Veloso, M. (2019). A 20-year community roadmap for artificial intelligence research in the US. arXiv preprint. https://arxiv.org/abs/1908.02624

Kellogg, K. C., Valentine, M. A., & Christin, A. (2020). Algorithms at work: The new contested terrain of control. Academy of Management Annals, 14(1), 366–410. https://doi.org/10.5465/annals.2018.0174

Lai, V., & Tan, C. (2019). On human predictions with explanations and predictions of machine learning models: A case study on deception detection. In Proceedings of the conference on fairness, accountability, and transparency (pp. 29–38). ACM. https://doi.org/10.1145/3287560.3287590

Thibaut, J., & Walker, L. (1975). Procedural justice: A psychological analysis. Lawrence Erlbaum Associates.

Vleugels, W., De Witte, H., & Forrier, A. (2025). Algorithmic management and psychological distress at work. International Archives of Occupational and Environmental Health, 98(2), 145–162. https://doi.org/10.1007/s00420-025-02180-5

Zerilli, J., Knott, A., Maclaurin, J., & Gavaghan, C. (2019). Transparency in algorithmic and human decision-making: Is there a double standard? Philosophy & Technology, 32, 661–683. https://doi.org/10.1007/s13347-018-0330-6