Cinco casos legales que redefinieron la responsabilidad algorítmica empresarial
Por David Hurtado
Chief Possibility Officer (CPO) Fundador — Integrity-Led Futures | Integridad Artificial
Maestrando en Diseño de Futuros | Especialista en IA, Ciencia de Datos y Arquitecto de Soluciones
El derecho laboral tardó décadas en ponerse al día con la Revolución Industrial. Los accidentes de trabajo, las jornadas de dieciséis horas, el trabajo infantil — todo existía durante años antes de que la jurisprudencia y la legislación construyeran un marco protector. La Revolución Algorítmica está siguiendo un patrón similar, pero con una diferencia importante: el tiempo entre el daño y la respuesta jurídica se está comprimiendo significativamente.
En los últimos tres años, cinco casos han transformado la comprensión jurídica de la responsabilidad algorítmica en entornos laborales. No son casos de ciencia ficción. Son casos reales, con partes identificadas, con montos de multas o acuerdos documentados y con precedentes que están siendo citados en nuevas demandas y en procesos regulatorios en todo el mundo.
Comprender estos casos no es un ejercicio académico para juristas. Es una herramienta de gestión de riesgos para cualquier directivo que tiene sistemas algorítmicos operando en su organización.
Caso 1: EEOC vs. iTutorGroup (Estados Unidos, 2023) — El primer acuerdo por discriminación algorítmica en contratación
Los hechos: iTutorGroup, una plataforma de tutoría virtual, implementó un sistema de selección de candidatos para instructores que automáticamente rechazaba aplicaciones de mujeres mayores de 55 años y hombres mayores de 60 años, sin que ningún ser humano revisara individualmente los perfiles descartados.
La resolución: la Comisión de Igualdad de Oportunidades de Empleo (EEOC) alcanzó un acuerdo de $365,000 dólares — el primero en la historia de la agencia específicamente relacionado con discriminación algorítmica en contratación (Sullivan & Cromwell, 2023).
El precedente: la empresa es responsable de la discriminación que genera su sistema algorítmico de selección, independientemente de si la discriminación fue intencional o emergió del diseño del sistema. La ignorancia sobre el funcionamiento del propio algoritmo no es una defensa válida.
La implicación para tu organización: si usas cualquier herramienta de filtrado automático de candidatos, tienes la obligación de verificar que no discrimina por variables protegidas. "El sistema lo hizo" no te exime de responsabilidad.
Caso 2: Uber vs. App Drivers & Couriers Union (Países Bajos, 2023) — La multa por opacidad algorítmica
Los hechos: Uber implementó un sistema de "deactivation" (desactivación de cuentas de conductores) que operaba de manera completamente automatizada y sin proporcionar a los conductores afectados ninguna información sobre los criterios usados para tomar la decisión, ni ningún mecanismo real de apelación. La organización sindical de conductores demandó a Uber por violación de las normas europeas de transparencia algorítmica.
La resolución: el tribunal holandés ordenó a Uber pagar €584,000 en multas por incumplimiento continuado de la orden judicial de transparencia algorítmica (ADCU, 2023). El tribunal estableció que Uber tenía la obligación legal de explicar la lógica del algoritmo que tomó decisiones sobre el empleo de los conductores.
El precedente: la empresa que usa un algoritmo para tomar decisiones sobre el trabajo de las personas tiene la obligación de explicar esa lógica. La propiedad intelectual del proveedor no es una defensa válida frente al derecho del trabajador a conocer los criterios de las decisiones que lo afectan.
La implicación: si tu sistema de evaluación o de desvinculación no puede ser explicado al trabajador afectado en términos comprensibles, tienes un riesgo activo, no solo una incomodidad operativa.
Caso 3: Mobley v. Workday (Estados Unidos, 2024) — La responsabilidad del proveedor
Los hechos: Derek Mobley, un afroamericano mayor de 40 años con discapacidad, demandó a Workday — proveedor de software de RRHH usado por cientos de empresas — alegando que su sistema de selección de candidatos discriminaba sistemáticamente por raza, edad y discapacidad. La demanda sostenía que Workday actuaba como "agente" de las decisiones de contratación de sus clientes.
La resolución: el tribunal del Distrito Norte de California permitió que el caso avanzara, determinando que la teoría de responsabilidad del proveedor como agente era plausible y merecía juicio (FairNow, 2024). El caso está en curso al momento de este artículo.
El precedente en construcción: si se confirma la responsabilidad del proveedor, los fabricantes de herramientas de IA para RRHH ya no podrán declararse ajenos a las consecuencias de sus sistemas. La cadena de responsabilidad se extendería hasta el diseño del producto.
La implicación: la diligencia debida sobre los sistemas que compras — exigir documentación técnica, auditorías de sesgo y cláusulas de explicabilidad en el contrato — no es burocracia. Es protección ante la posibilidad de que el proveedor y tú compartan responsabilidad por el daño que el sistema genere.
Caso 4: Teleperformance vs. Comisionado de Protección de Datos de Albania (2021-2023) — El límite del hogar
Los hechos: Teleperformance implementó un sistema de vigilancia en los hogares de sus trabajadores remotos en Albania, usando cámaras con IA que analizaban expresiones faciales, detectaban presencia de otras personas en el área de trabajo y generaban alertas automatizadas hacia supervisores. Los trabajadores habían firmado contratos autorizando la práctica.
La resolución: el comisionado de protección de datos de Albania prohibió el uso del sistema en el territorio nacional, determinando que la práctica violaba las leyes de privacidad y dignidad laboral, independientemente del consentimiento contractual obtenido en condiciones de desequilibrio de poder (Business & Human Rights Centre, 2021).
El precedente: el consentimiento obtenido bajo condiciones de necesidad económica y desequilibrio de poder no es consentimiento genuino. La vigilancia algorítmica en el espacio privado del trabajador tiene límites que ningún contrato puede eliminar completamente.
La implicación: los contratos de trabajo que autorizan sistemas de vigilancia invasivos deben ser revisados con criterio de proporcionalidad, no solo de legalidad formal. Un trabajador que firma porque teme perder su empleo no está dando consentimiento libre.
Caso 5: Amazon vs. Senado de los Estados Unidos (2024) — La manipulación de datos de seguridad
Los hechos: una investigación del Senado de los Estados Unidos concluyó que Amazon no solo tenía la tasa de lesiones más alta de la industria logística — 6.5 lesiones por cada 100 trabajadores, casi el triple del promedio sectorial —, sino que había manipulado activamente los datos de lesiones reportados para hacer que sus almacenes parecieran más seguros de lo que realmente eran (NPR, 2024).
La resolución: la investigación está en curso, con recomendaciones de regulación federal que incluyen obligaciones de reporte verificado de lesiones en todos los sistemas algorítmicos de gestión de productividad en almacenes.
El precedente en construcción: la manipulación de datos de seguridad para ocultar el impacto de sistemas algorítmicos en la salud de los trabajadores puede constituir una forma de fraude corporativo con consecuencias penales para los directivos responsables.
La implicación: los datos de salud y seguridad relacionados con sistemas algorítmicos deben ser gestionados con el mismo rigor que cualquier otro dato financiero material. Su manipulación tiene dimensiones legales que van más allá del derecho laboral.
El patrón que emerge de los cinco casos
Los cinco casos son diferentes en su jurisdicción, en su industria y en su resultado específico. Pero comparten un patrón que describe con precisión la frontera entre gestión algorítmica legítima y responsabilidad algorítmica:
1. La opacidad del sistema no es una defensa: en todos los casos, los responsables intentaron protegerse detrás de la complejidad del algoritmo. En todos los casos, los tribunales y reguladores rechazaron ese argumento.
2. La responsabilidad no termina en el proveedor: las organizaciones son responsables de los sistemas que implementan, independientemente de quién los desarrolló.
3. El consentimiento formal no reemplaza la dignidad real: los contratos que autorizan prácticas invasivas o discriminatorias no son blindaje legal suficiente si las condiciones de su firma implican coerción.
4. La intención no exculpa el daño: ninguno de los casos documentados involucra evidencia de intención maliciosa. El daño emergió del diseño del sistema, no de la maldad de sus implementadores.
5. El tiempo de prescripción se acorta: lo que antes tardaba años en llegar a los tribunales está llegando en meses, a medida que los instrumentos legales, la consciencia de los trabajadores y la capacidad de los reguladores se desarrollan simultáneamente.
La Integridad Artificial existe, entre otras razones, para que las organizaciones no necesiten aparecer en el sexto caso de esta lista.
Referencias
App Drivers & Couriers Union. (2023). Uber ordered to pay €584,000 in penalties for failure to comply with algorithmic transparency. ADCU. https://www.adcu.org.uk/news-posts/uber-ordered-to-pay-eu584-000-in-penalties-for-failure-to-comply-with-court-order-for-algorithmic-transparency
Business & Human Rights Resource Centre. (2021). Unions accuse Teleperformance of monitoring remote workers. https://www.business-humanrights.org/en/latest-news/unions-accuse-call-centre-giant-teleperformance-of-monitoring-surveilling-remote-workers-across-europe-incl-co-comments/
FairNow. (2024). Workday lawsuit over AI hiring bias: What you need to know. https://fairnow.ai/workday-lawsuit-resume-screening/
NPR. (2024, December 16). Amazon manipulated injury data, Senate investigation finds. https://www.npr.org/2024/12/16/nx-s1-5230240/amazon-injury-warehouse-senate-investigation
Sullivan & Cromwell LLP. (2023). EEOC settles first AI discrimination lawsuit. https://www.sullcrom.com/insights/blogs/2023/August/EEOC-Settles-First-AI-Discrimination-Lawsuit
Quinn Emanuel Urquhart & Sullivan. (2024). When machines discriminate: The rise of AI bias lawsuits. https://www.quinnemanuel.com/the-firm/publications/when-machines-discriminate-the-rise-of-ai-bias-lawsuits/
European Parliament. (2024). Regulation (EU) 2024/1689 on artificial intelligence (AI Act). Official Journal of the European Union.