Por David Hurtado Chief Possibility Officer (CPO) Fundador — Integrity-Led Futures | Integridad Artificial Maestrando en Diseño de Futuros | Especialista en IA, Ciencia de Datos y Arquitecto de Soluciones


Imagina que llegas a tu trabajo un lunes por la mañana. No hay carta de despido. No hay jefe que te llame. No hay proceso de recursos humanos. Solo un mensaje en tu teléfono: "Tu cuenta ha sido desactivada."

Eso es lo que les sucede a miles de conductores de Uber en todo el mundo. Se llama deactivation: el algoritmo determina que ya no eres apto para operar en la plataforma y te desconecta. Sin previo aviso. Sin explicación de los criterios usados. Sin proceso de apelación real. Y tu primer contacto tras perder tu fuente de ingresos es un chatbot.

Este no es un caso hipotético. Es una práctica documentada, litigada en tribunales internacionales y confirmada por investigaciones periodísticas y académicas en tres continentes. Y es, desde la perspectiva de la Integridad Artificial, uno de los ejemplos más claros de lo que ocurre cuando una organización delega el poder de decisión sobre la vida laboral de las personas a un sistema que no tiene obligación de explicarse.

La caja negra de la deactivación

En 2023, un tribunal holandés determinó que Uber violó las normas europeas de transparencia algorítmica al no proporcionar ninguna información sobre los sistemas automatizados que activaron la revisión y posterior eliminación de cuentas de conductores (ADCU, 2023). La multa fue de 584,000 euros, pero el fallo tuvo un alcance más significativo que la sanción económica: estableció jurisprudencia sobre el derecho del trabajador a conocer la lógica del algoritmo que toma decisiones sobre su empleo.

El principio es simple y profundo al mismo tiempo: si un sistema automatizado puede costarte el trabajo, tienes derecho a saber cómo funciona, qué mide y por qué llegó a esa conclusión sobre ti.

Uber, y con ella toda la economía de plataformas, había construido su modelo operativo sobre el supuesto contrario: que el algoritmo es un asunto interno de la empresa, que sus criterios son propiedad intelectual y que el trabajador no tiene derecho a cuestionar la lógica del código. El tribunal holandés dijo lo contrario. Y el AI Act europeo lo convirtió en ley.

El perfil de quien más pierde

La investigación del Asian Law Caucus (2022) en California aportó uno de los hallazgos más perturbadores del caso Uber: los conductores de color y los inmigrantes tienen una probabilidad significativamente mayor de ser desactivados que los conductores blancos angloparlantes, incluso controlando por variables de rendimiento.

El algoritmo no discrimina conscientemente. Nadie programó "si el conductor es inmigrante, desactivarlo más rápido". Lo que sucede es más sutil y más sistémico: el modelo fue entrenado con datos históricos que reflejan patrones de evaluación sesgados — calificaciones de usuarios que inconscientemente califican diferente a conductores según su nombre, acento o apariencia —, y el sistema amplificó esos sesgos a escala industrial.

Esto es exactamente lo que en Integridad Artificial denominamos violación de integridad de datos: cuando los sesgos históricos no son identificados, cuantificados y corregidos antes de que el algoritmo opere sobre personas reales, el sistema perpetúa y escala la inequidad. No como error, sino como consecuencia del diseño.

El vacío de Human-in-the-Loop

La ausencia más crítica en el modelo de desactivación de Uber es la que el framework de Integridad Artificial denomina Human-in-the-Loop (HITL): la existencia de un ser humano con criterio, contexto y responsabilidad que pueda revisar, cuestionar y revertir las decisiones del sistema antes de que afecten la vida de una persona.

En el modelo Uber, ese humano no existe en ningún punto del proceso de desactivación. El algoritmo detecta un patrón que considera anómalo (una calificación baja acumulada, una queja de usuario, un comportamiento fuera de parámetros), genera una decisión de desactivación y la ejecuta. El conductor recibe una notificación. Si intenta apelar, llega a un chatbot que sigue un árbol de decisión también automatizado.

El resultado es lo que podría llamarse una cadena de opacidad institucionalizada: una sucesión de sistemas automatizados que operan sin supervisión humana real y sin ningún mecanismo de rendición de cuentas ante el afectado.

El AI Act europeo exige, para sistemas de alto riesgo en contextos laborales, una "supervisión humana significativa". Significativa implica que el humano puede entender la decisión Y tiene la capacidad real de revertirla. No una validación cosmética. No un humano que aprueba automáticamente lo que el algoritmo ya decidió.

Las tensiones que la Integridad Artificial resuelve

El caso Uber ilustra con precisión las tensiones que la Integridad Artificial está diseñada para detectar y resolver:

Tensión 1: Eficiencia versus dignidad. La desactivación algorítmica instantánea es extraordinariamente eficiente desde la perspectiva de la plataforma: elimina fricciones, reduce costos de RRHH y escala sin límites. Pero produce un daño humano desproporcionado: la pérdida repentina de ingresos sin posibilidad de defensa, con el consecuente impacto en salud mental, estabilidad familiar y sentido de dignidad profesional.

Tensión 2: Velocidad de decisión versus derecho a la explicación. Un algoritmo puede tomar y ejecutar una decisión en milisegundos. Un proceso justo de terminación laboral requiere tiempo, contexto y diálogo. La IAI no propone hacer los algoritmos más lentos; propone que las decisiones críticas sobre personas sean pausadas, revisadas y comunicadas humanamente antes de ejecutarse.

Tensión 3: Escalabilidad versus equidad. Lo que hace que la gestión algorítmica sea atractiva para las plataformas — su capacidad de operar sobre millones de personas con los mismos parámetros — es exactamente lo que la vuelve peligrosa desde la perspectiva de la equidad: si el modelo tiene sesgo, ese sesgo opera sobre millones de personas simultáneamente. La escala del daño es proporcional a la escala del sistema.

Qué debería haber en su lugar

Un sistema de gestión laboral con Integridad Artificial no elimina la posibilidad de terminar la relación con un trabajador. Establece las condiciones bajo las cuales esa decisión puede tomarse con integridad:

  • El trabajador sabe de antemano qué criterios el sistema considera para su evaluación.
  • Antes de una decisión de desactivación, un ser humano con autoridad y contexto revisa el caso específico.
  • El trabajador tiene un canal real de apelación con tiempos de respuesta definidos y acceso a una persona, no a un chatbot.
  • Si la desactivación procede, hay un proceso de comunicación humana directa que explica los criterios, los hechos y los recursos disponibles.

Esto no es utopía. Es el estándar que ya existe en cualquier relación laboral formal y que la economía de plataformas decidió ignorar porque no tenía quién la obligara a hacerlo. Hasta ahora.

La pregunta que todo directivo debe responder

Si tu organización usa algoritmos para evaluar, clasificar o desactivar a las personas que trabajan para ella — en cualquier modalidad contractual —, hay una pregunta que debe poder responder sin evasivas: ¿Puede un trabajador saber por qué el sistema tomó una decisión sobre él, y puede apelarla ante un ser humano con capacidad real de revertirla?

Si la respuesta es no, tienes un problema de Integridad Artificial. Y en 2026, ese problema tiene nombre en los tribunales.


Referencias

Asian Law Caucus. (2022). Deactivation crisis among California rideshare drivers: First-of-its-kind survey. Asian Law Caucus. https://www.asianlawcaucus.org/news-resources/news/deactivation-crisis-among-ca-rideshare-drivers-first-time-survey

App Drivers & Couriers Union. (2023). Uber ordered to pay €584,000 in penalties for failure to comply with algorithmic transparency. ADCU. https://www.adcu.org.uk/news-posts/uber-ordered-to-pay-eu584-000-in-penalties-for-failure-to-comply-with-court-order-for-algorithmic-transparency

European Parliament. (2024). Regulation (EU) 2024/1689 on artificial intelligence (AI Act). Official Journal of the European Union.

Mohlmann, M., & Zalmanson, L. (2021). Hands on the wheel: Navigating algorithmic management and Uber drivers' autonomy. MIS Quarterly, 45(3), 1Kellogg, K. C., Valentine, M. A., & Christin, A. (2020). Algorithms at work: The new contested terrain of control. Academy of Management Annals, 14(1), 366–410. https://doi.org/10.5465/annals.2018.0174

Mishel, L., & Kandra, J. (2020). CEO pay has skyrocketed 1,322% since 1978. Economic Policy Institute.

Prassl, J. (2018). Humans as a service: The promise and perils of work in the gig economy. Oxford University Press.

Rosenblat, A. (2018). Uberland: How algorithms are rewriting the rules of work. University of California Press.