¿Podría tu empresa explicar ante un juez cómo funciona el algoritmo que despidió a alguien?

Por David Hurtado
Chief Possibility Officer (CPO) Fundador — Integrity-Led Futures | Integridad Artificial
Maestrando en Diseño de Futuros | Especialista en IA, Ciencia de Datos y Arquitecto de Soluciones


Hay una pregunta que los departamentos jurídicos de las organizaciones que usan IA para gestionar personas deberían hacerse hoy, antes de que la formulen desde el otro lado de una sala de audiencias.

¿Podría un representante de esta empresa explicar ante un juez, con claridad y con evidencia, los criterios exactos que usó el sistema algorítmico para evaluar al empleado, determinar su bajo rendimiento y recomendar o ejecutar su desvinculación?

Si la respuesta es no, o si la respuesta es "depende del proveedor y ellos dicen que es información confidencial", la organización tiene un problema que en 2026 ya no es hipotético. Es un riesgo legal activo y creciente, respaldado por jurisprudencia en múltiples jurisdicciones y por regulación específica en la Unión Europea.

El nuevo paisaje jurídico de la gestión algorítmica

El escenario legal en torno a los algoritmos de gestión laboral ha cambiado radicalmente entre 2020 y 2026. Lo que era un área gris jurídica se está convirtiendo, con velocidad notable, en un territorio con obligaciones claras, jurisprudencia acumulada y regulación explícita.

El AI Act europeo (Reglamento EU 2024/1689) clasifica los sistemas de IA que influyen en decisiones de contratación, evaluación de desempeño, promoción y terminación laboral como sistemas de "alto riesgo" con obligaciones específicas de transparencia, documentación técnica, supervisión humana y derecho de explicación para los trabajadores afectados. Las organizaciones que operan en Europa o que tienen proveedores europeos están sujetas a este marco.

El caso Uber (Países Bajos, 2023): el tribunal determinó que Uber violó las normas europeas de transparencia algorítmica. Multa de €584,000. Pero más importante que la sanción fue la naturaleza del fallo: la empresa tenía la obligación de explicar la lógica del algoritmo que desactivó conductores, y no pudo hacerlo. Esa incapacidad fue la violación (ADCU, 2023).

El caso Mobley v. Workday (Estados Unidos, 2024): el tribunal permitió que la demanda avanzara, reconociendo que el proveedor de software de RRHH podría tener responsabilidad como "agente" de las decisiones de discriminación algorítmica. El fabricante del algoritmo ya no puede declararse ajeno a las consecuencias de su sistema (FairNow, 2024).

La Local Law 144 de Nueva York (vigente desde 2023): exige auditorías independientes de sesgo publicadas anualmente para cualquier herramienta automatizada de decisión de empleo. La ausencia de auditoría es evidencia de negligencia (American Bar Association, 2024).

El argumento del "proveedor" ya no funciona

Durante años, cuando los departamentos jurídicos eran presionados sobre la transparencia de sus sistemas algorítmicos de RRHH, la respuesta estándar era: "el algoritmo es propiedad intelectual del proveedor y no tenemos acceso a su lógica interna". Ese argumento funcionó en los tribunales de otra época.

En 2026, ya no funciona. Por dos razones:

Primera razón — la responsabilidad del usuario: el AI Act europeo establece explícitamente que el "usuario" de un sistema de IA de alto riesgo (en este contexto, la empresa que lo implementa) es responsable de garantizar que el sistema opera con integridad, independientemente de quién lo desarrolló. La empresa que compra e implementa un sistema de evaluación de desempeño algorítmico no puede eludir su responsabilidad señalando al proveedor.

Segunda razón — la obligación contractual de explicabilidad: la Integridad Artificial establece que cualquier contrato con un proveedor de sistemas de IA de gestión laboral debe incluir una cláusula de explicabilidad: el proveedor tiene la obligación contractual de proporcionar documentación comprensible sobre los criterios y el funcionamiento del sistema, suficiente para que la empresa pueda explicarlo ante un trabajador afectado o ante un tribunal. Si el proveedor no acepta esa cláusula, el sistema no puede ser implementado sin crear un riesgo legal inaceptable.

Tres escenarios legales que las organizaciones deben preparar

Escenario 1 — Impugnación individual de evaluación: un empleado evalúa su puntuación en el sistema de evaluación de desempeño y la considera injusta. Inicia un proceso de apelación interno. Si el área de RRHH no puede explicar qué criterios generaron esa puntuación, el proceso de apelación es inválido en su diseño. La decisión judicial o arbitral puede ser que la evaluación no tiene validez legal porque no puede ser cuestionada de manera significativa.

Escenario 2 — Demanda por discriminación algorítmica: un grupo de empleados con características protegidas similares (por ejemplo, mujeres mayores de 45 años con contratos a término fijo) documenta que el sistema las evalúa sistemáticamente por debajo del promedio y que esa evaluación ha influido en decisiones de renovación de contratos. Si la empresa no tiene auditorías de sesgo que demuestren que el sistema no discrimina, y no puede explicar la lógica del modelo, tiene una posición probatoria extremadamente débil.

Escenario 3 — Investigación regulatoria: las autoridades de protección de datos o de inspección laboral inician una investigación sobre el uso de sistemas algorítmicos en la organización. Solicitan la documentación técnica del sistema, los registros de supervisión humana, los protocolos de comunicación de decisiones y las auditorías de sesgo realizadas. La incapacidad de presentar esa documentación — porque nunca se construyó — es evidencia de incumplimiento sistémico.

La diligencia debida en integridad algorítmica

En el campo legal, la diligencia debida es el conjunto de acciones que una organización realiza para verificar, documentar y gestionar los riesgos asociados a sus actividades. En el campo de la gestión algorítmica, la diligencia debida de integridad tiene cinco elementos mínimos que el área jurídica debería exigir antes de aprobar cualquier implementación de IA en RRHH:

1. Documentación técnica comprensible del sistema: no el código fuente, sino una descripción en lenguaje no técnico de qué variables considera el modelo, qué pesos aproximados tienen, qué rango de resultados puede producir y cuáles son sus limitaciones documentadas.

2. Auditoría de sesgo pre-implementación: análisis estadístico formal que demuestre ausencia de discriminación estadística por variables protegidas antes de que el sistema entre en operación sobre personas reales.

3. Protocolo documentado de Human-in-the-Loop: documento que establece quién revisa qué decisiones, con qué frecuencia, con qué criterios y con qué autoridad real de reversión.

4. Protocolo de comunicación ética: documento que establece que ninguna decisión crítica sobre una persona (evaluaciones que activan consecuencias, advertencias disciplinarias, recomendaciones de desvinculación) será comunicada exclusivamente por un sistema automatizado.

5. Contrato con cláusula de explicabilidad: acuerdo con el proveedor que garantiza el acceso a información suficiente para explicar el funcionamiento del sistema ante trabajadores, instancias internas de apelación y tribunales.

El momento de actuar es antes del caso, no después

La gestión de riesgos jurídicos en el campo de la IA tiene una característica que la distingue de otros campos: el daño frecuentemente ya está hecho cuando el litigio comienza. Si el sistema lleva dieciocho meses discriminando estadísticamente ciertos perfiles, los dieciocho meses de decisiones sesgadas son el pasivo. La demanda solo los hace visibles.

La Integridad Artificial propone una lógica preventiva: auditar antes de que el caso llegue, documentar antes de que se requiera y corregir antes de que el daño sea litigado. No porque las organizaciones sean obligadas por la ley — aunque cada vez más lo serán —, sino porque es la posición estratégica que minimiza el riesgo real y maximiza la posibilidad de gestionar los problemas internamente antes de que escalen.

La pregunta que abre este artículo no es retórica. Es una prueba de integridad organizacional. Y la única forma de pasarla es haber hecho el trabajo antes de que alguien la formule desde el otro lado de la sala.


Referencias

American Bar Association. (2024, April). Navigating the AI employment bias maze. Business Law Today. https://www.americanbar.org/groups/business_law/resources/business-law-today/2024-april/navigating-ai-employment-bias-maze/

App Drivers & Couriers Union. (2023). Uber ordered to pay €584,000 in penalties for failure to comply with algorithmic transparency. ADCU. https://www.adcu.org.uk/news-posts/uber-ordered-to-pay-eu584-000-in-penalties-for-failure-to-comply-with-court-order-for-algorithmic-transparency

European Parliament. (2024). Regulation (EU) 2024/1689 on artificial intelligence (AI Act). Official Journal of the European Union.

FairNow. (2024). Workday lawsuit over AI hiring bias: What you need to know. https://fairnow.ai/workday-lawsuit-resume-screening/

Quinn Emanuel Urquhart & Sullivan. (2024). When machines discriminate: The rise of AI bias lawsuits. https://www.quinnemanuel.com/the-firm/publications/when-machines-discriminate-the-rise-of-ai-bias-lawsuits/

Reworked. (2024). Why AI hiring discrimination lawsuits are about to explode. https://www.reworked.co/talent-management/why-ai-hiring-discrimination-lawsuits-are-about-to-explode/

Vleugels, W., De Witte, H., & Forrier, A. (2025). Algorithmic management and psychological distress at work. International Archives of Occupational and Environmental Health, 98(2), 145–162. https://doi.org/10.1007/s00420-025-02180-5