El derecho a negociar frente al código: sindicatos, IA y el futuro de las relaciones laborales
Por David Hurtado
Chief Possibility Officer (CPO) Fundador — Integrity-Led Futures | Integridad Artificial
Maestrando en Diseño de Futuros | Especialista en IA, Ciencia de Datos y Arquitecto de Soluciones
Las negociaciones colectivas tienen una historia de casi dos siglos. Surgieron cuando los trabajadores comprendieron que la asimetría de poder entre el empleador individual y el trabajador individual era tan grande que la negociación individual era, en la práctica, una ficción: el trabajador aceptaba las condiciones o no tenía empleo. La respuesta fue la organización colectiva y la negociación en nombre de todos.
Esa lógica fue eficaz durante décadas para gestionar las asimetrías más visibles: salarios, jornadas, condiciones físicas de trabajo, beneficios. Los convenios colectivos capturaron esas dimensiones con razonable precisión porque las partes podían describirlas, medirlas y negociarlas con herramientas comprensibles para ambos lados de la mesa.
En 2026, hay una nueva asimetría que los convenios colectivos no están capturando: la asimetría entre los trabajadores y los algoritmos que los gestionan. Y resolverla requiere que las organizaciones sindicales, las organizaciones empleadoras y los marcos regulatorios desarrollen algo que todavía no existe en la mayoría de los contextos: el derecho a negociar frente al código.
La nueva asimetría: el trabajador vs. el algoritmo
La negociación colectiva tradicional funciona cuando ambas partes pueden comprender los términos de lo que se negocia. El salario es comprensible. El horario es comprensible. Las condiciones de seguridad física son comprensibles. Pueden ponerse en palabras, en números, en compromisos verificables.
Los algoritmos de gestión laboral generan condiciones de trabajo que son frecuentemente incomprensibles para quienes están sujetos a ellas. Los criterios de evaluación no están en lenguaje natural. Las variables que el sistema considera no están listadas en ningún documento accesible. Los umbrales que activan consecuencias disciplinarias o laborales no han sido negociados con nadie representativo de los trabajadores afectados.
Y sin embargo, esos criterios determinan los ritmos de trabajo, las evaluaciones de desempeño, las asignaciones de tareas y, en los casos más extremos, las decisiones de desvinculación. Son condiciones de trabajo de primer orden. Pero están escritas en código, y el código históricamente no estaba en la mesa de negociación.
Lo que los marcos regulatorios están empezando a exigir
El movimiento regulatorio más significativo en esta dirección es el AI Act europeo, que en su Artículo 26 establece que los trabajadores — o sus representantes — tienen derecho a ser informados sobre el uso de sistemas de IA de alto riesgo en sus entornos de trabajo. Más específicamente, las directivas europeas de información y consulta de trabajadores establecen que los comités de empresa tienen derecho a ser consultados antes de la implementación de sistemas automatizados que afecten las condiciones de trabajo.
En Países Bajos, el Acta de Obras Sociales ha sido interpretada por los tribunales para incluir el derecho de los comités de empresa a ser consultados antes de la implementación de algoritmos de gestión de personal. En Alemania, los acuerdos de empresa (Betriebsvereinbarungen) están empezando a incluir cláusulas específicas sobre los sistemas algorítmicos de gestión, definiendo qué variables puede considerar el sistema, qué umbrales activan consecuencias disciplinarias y qué derechos de apelación tienen los trabajadores.
Estos son precedentes que señalan la dirección en que se mueve el derecho laboral: hacia la incorporación de los algoritmos en el ámbito de la negociación colectiva.
Qué significa "negociar frente al código" en la práctica
La negociación colectiva frente a los algoritmos no puede funcionar de la misma manera que la negociación sobre salarios o jornadas. El código no se "negocia" línea por línea. Lo que sí puede negociarse — y lo que los convenios colectivos más avanzados en Europa ya están empezando a incluir — son los límites, los criterios y los derechos que rodean al sistema algorítmico:
Límites negociables:
- Qué variables puede y no puede considerar el sistema para evaluar al trabajador.
- Los umbrales máximos de intensidad de monitoreo: qué puede registrarse, con qué frecuencia y con qué granularidad.
- Los ritmos mínimos de descanso y recuperación que el sistema debe respetar en sus asignaciones de tareas.
- Las condiciones bajo las cuales el sistema puede recomendar acciones disciplinarias o de desvinculación.
Criterios negociables:
- El proceso de auditoría de sesgo: quién lo realiza, con qué frecuencia y cómo se comparten los resultados con los representantes de los trabajadores.
- La composición y el funcionamiento del protocolo Human-in-the-Loop: qué decisiones requieren revisión humana, quién la realiza y con qué plazos.
- Los mecanismos de apelación: quién puede apelar, ante quién, con qué tiempos de respuesta y con qué acceso a la información del sistema.
Derechos negociables:
- El derecho del trabajador a conocer su propio perfil de evaluación en el sistema.
- El derecho a recibir explicación comprensible de cualquier decisión del sistema que lo afecte significativamente.
- El derecho a que una instancia humana con capacidad real de decisión revise cualquier consecuencia negativa generada por el sistema.
El papel de la Integridad Artificial en la negociación colectiva
La Integridad Artificial tiene un rol específico en el proceso de negociación colectiva frente a los algoritmos: proporcionar el lenguaje, los instrumentos y la metodología que hacen posible una negociación informada.
Sin herramientas de medición específicas, la negociación sobre algoritmos es abstracta e ineficaz. ¿Cómo negocias sobre "el impacto psicosocial del sistema" si no tienes una métrica que lo cuantifique? ¿Cómo argumentas sobre "la presencia de sesgos" sin un análisis estadístico formal?
El IAI Score, el Índice de Tecnoestrés, el análisis de sesgo estadístico con tests de Mann-Whitney y Kruskal-Wallis, y el protocolo de evaluación del Human-in-the-Loop son exactamente las herramientas que los representantes de los trabajadores necesitan para poder negociar sobre las dimensiones de la gestión algorítmica que más afectan a sus representados, con datos en lugar de percepciones.
Lo que las organizaciones empleadoras pueden ganar
La posición reflexiva de algunas organizaciones empleadoras frente a la negociación colectiva sobre algoritmos es la resistencia: si aceptamos negociar sobre el algoritmo, perdemos control sobre nuestra tecnología.
Esa posición es comprensible pero estratégicamente errada. Las organizaciones que se resisten a negociar sobre sus sistemas algorítmicos hasta que son obligadas por la ley o por un fallo judicial, negocian desde una posición de desventaja. Las que se adelantan a la negociación — que proponen abrir el diálogo sobre los límites y criterios del sistema antes de que los trabajadores lo exijan — negocian desde una posición de fortaleza y de credibilidad.
Hay un beneficio adicional que pocas organizaciones consideran: los representantes de los trabajadores que entienden el sistema algorítmico — que conocen qué variables considera, qué limitaciones tiene y cuáles son los canales para corregirlo — son mejores aliados en la implementación de ese sistema que representantes que lo perciben como una caja negra amenazante.
La transparencia algorítmica en la negociación colectiva no solo protege a los trabajadores. Genera la confianza que hace posible que los sistemas algorítmicos funcionen mejor para todos. Y esa es, en última instancia, la promesa de la Integridad Artificial: no eliminar los algoritmos, sino hacerlos dignos de la confianza de las personas que trabajan bajo ellos.
Referencias
Eurofound. (2020). New forms of employment: Developing the knowledge base for policy. Publications Office of the European Union.
European Parliament. (2024). Regulation (EU) 2024/1689 on artificial intelligence (AI Act). Official Journal of the European Union.
International Labour Organization. (2023). The role of artificial intelligence in transforming the world of work. ILO. https://www.ilo.org/wcmsp5/groups/public/---dgreports/---dcomm/documents/briefingnote/wcms_886175.pdf
Kellogg, K. C., Valentine, M. A., & Christin, A. (2020). Algorithms at work: The new contested terrain of control. Academy of Management Annals, 14(1), 366–410. https://doi.org/10.5465/annals.2018.0174
Prassl, J. (2018). Humans as a service: The promise and perils of work in the gig economy. Oxford University Press.
Vleugels, W., De Witte, H., & Forrier, A. (2025). Algorithmic management and psychological distress at work. International Archives of Occupational and Environmental Health, 98(2), 145–162. https://doi.org/10.1007/s00420-025-02180-5
Wachter, S., Mittelstadt, B., & Russell, C. (2017). Counterfactual explanations without opening the black box: Automated decisions and the GDPR. Harvard Journal of Law & Technology, 31(2), 841–887.