Por David Hurtado Chief Possibility Officer (CPO) Fundador — Integrity-Led Futures | Integridad Artificial Maestrando en Diseño de Futuros | Especialista en IA, Ciencia de Datos y Arquitecto de Soluciones
Una IA decidió que sus trabajadores no iban lo suficientemente rápido.
El resultado fue la tasa de lesiones más alta de la industria logística en Estados Unidos: 6.5 lesiones por cada 100 trabajadores a tiempo completo en los almacenes de Amazon. El promedio de Walmart era 2.3. El de TJX, 4.2. Amazon casi triplicaba el referente de la industria, y lo hacía de manera sostenida y documentada (Strategic Organizing Center, 2023).
Esto no fue un accidente. Fue una consecuencia directa de un sistema algorítmico llamado Time Off Task (TOT): un mecanismo de monitoreo que rastrea, en tiempo real, cada segundo que un empleado no está realizando una tarea productiva medible. Ir al baño. Estirarse después de cargar cajas durante cuatro horas. Intercambiar dos palabras con un compañero. El algoritmo lo registra como "tiempo perdido" y ajusta las métricas de productividad esperada hacia arriba.
Lo que Amazon construyó no fue solo un sistema de medición. Construyó un sistema de presión biológica sostenida sin supervisión humana real.
El nombre técnico de lo que Amazon hizo
En el campo de la Integridad Artificial, esto tiene nombre: violación de integridad de diseño. El algoritmo no fue diseñado para proteger la salud del trabajador. Fue diseñado para extraer el máximo rendimiento físico de un cuerpo humano en el menor tiempo posible, ignorando deliberadamente que ese cuerpo tiene límites que ningún KPI puede renegociar.
El Digital Taylorism — la versión algorítmica del taylorismo del siglo XX, que fragmentaba el trabajo humano en microunidades cronometradas — encontró en la gestión algorítmica su versión más perfeccionada y escalable. Frederick Winslow Taylor cronometraba con un reloj. Amazon usa sensores, escáneres y modelos de machine learning que operan en milisegundos y a escala de cientos de miles de empleados simultáneamente.
El daño no es conceptual. Es físico, medible y documentado.
Los datos que Amazon intentó ocultar
En diciembre de 2024, una investigación del Senado de los Estados Unidos concluyó que Amazon no solo tenía la tasa de lesiones más alta de la industria, sino que había manipulado activamente los datos de lesiones para hacer que sus almacenes parecieran más seguros de lo que realmente eran (NPR, 2024). La empresa reportaba cifras que no reflejaban la realidad porque el propio sistema de incentivos penalizaba a los supervisores que reportaban lesiones: hacerlo afectaba los bonos de productividad del área.
Lo que emerge es un sistema con múltiples capas de integridad comprometida:
- El algoritmo presionaba más allá de los límites físicos humanos (integridad de diseño ausente).
- Los datos de lesiones eran manipulados para no disparar alertas (integridad de datos ausente).
- Los resultados nunca fueron cuestionados ni revertidos por supervisión humana real (Human-in-the-Loop ausente).
La triada completa de violación IAI. Y la empresa más valiosa del mundo en logística fue el escenario.
¿Qué tan extendida es esta lógica?
El caso Amazon no es una anomalía. Es el caso extremo de una lógica que opera, con distintos grados de intensidad, en cualquier organización que usa sistemas algorítmicos para gestionar el ritmo de trabajo de sus empleados sin auditar el impacto en su salud.
Un estudio publicado en 2025 en International Archives of Occupational and Environmental Health encontró que los trabajadores expuestos a gestión algorítmica intensiva tienen un ratio de prevalencia de 2.12 en angustia psicológica: más del doble de probabilidad de sufrir distress psicológico severo comparado con quienes trabajan en entornos sin algoritmos de gestión (Vleugels et al., 2025). Otro estudio con 27,250 trabajadores europeos documentó que cada unidad de incremento en la intensidad de gestión algorítmica se asocia con un 21% más de riesgos psicosociales y un 16.5% más de problemas de salud general (Eurofound, 2023).
El cuerpo humano no distingue si la presión la ejerce un capataz con cronómetro o un servidor en la nube con un modelo de regresión. El daño fisiológico y psicológico es el mismo.
Lo que la Integridad Artificial habría exigido
Si los almacenes de Amazon hubieran operado bajo un marco de Integridad Artificial, tres intervenciones críticas habrían cambiado el resultado:
1. Auditoría de sostenibilidad biológica de los KPIs. Antes de implementar el sistema TOT, un proceso de Integridad Artificial exige verificar que las metas de productividad que establece el algoritmo son humanamente sostenibles: compatibles con pausas ergonómicas reglamentarias, con necesidades fisiológicas básicas y con la variabilidad natural del rendimiento humano a lo largo de un turno de ocho horas.
2. Transparencia algorítmica hacia el trabajador. El empleado tiene derecho a saber exactamente qué se está midiendo, con qué frecuencia y qué consecuencias tiene para su evaluación. En el caso Amazon, muchos trabajadores desconocían que ir al baño afectaba su métrica de TOT hasta que recibían una advertencia formal.
3. Human-in-the-Loop obligatorio para alertas de bajo rendimiento. Ninguna decisión que afecte la evaluación o el empleo de una persona debería ejecutarse sin que un ser humano con criterio, contexto y responsabilidad haya validado la decisión del sistema. El AI Act europeo lo exige ya para sistemas de alto riesgo en entornos laborales.
El costo de ignorar la integridad
Las consecuencias del modelo Amazon se miden en varias monedas.
En dinero: el Strategic Organizing Center (2023) estimó que el exceso de lesiones en almacenes de Amazon respecto al promedio de la industria genera costos directos e indirectos superiores a mil millones de dólares anuales entre indemnizaciones, ausentismo, rotación y litigios.
En talento: la tasa de rotación en los almacenes de Amazon en Estados Unidos llegó al 150% anual en algunos años, lo que significa que la empresa reemplaza toda su fuerza laboral de almacén cada ocho meses. El costo de contratación y entrenamiento por trabajador varía entre 3,000 y 5,000 dólares.
En reputación: Amazon ha enfrentado sindicalizaciones, investigaciones del Congreso, reportajes de primera plana y boicots de consumidores directamente vinculados a las condiciones laborales algorítmicamente inducidas.
En dignidad humana: esta es la moneda que ningún balance contable captura, pero que define el carácter de una organización.
La pregunta para tu empresa
Ninguna organización que implementa sistemas de monitoreo algorítmico aspira a ser el caso Amazon. Y sin embargo, la diferencia entre tener integridad algorítmica y no tenerla rara vez es intencional. Casi siempre es una diferencia de auditoría: nadie verificó que los KPIs fueran sostenibles, nadie midió el impacto psicosocial del sistema, nadie implementó supervisión humana real sobre las decisiones críticas.
La pregunta no es si tienes buenas intenciones. La pregunta es si tus algoritmos de gestión respetan los límites físicos y mentales de tu equipo.
Y si no puedes responder esa pregunta con datos, ya tienes tu primera señal de alarma.
Referencias
National Employment Law Project. (2023). Amazon's outsized role in the warehouse injury crisis and a policy roadmap to protect workers. NELP. https://www.nelp.org/insights-research/amazons-outsized-role-the-injury-crisis-in-u-s-warehouses-and-a-policy-roadmap-to-protect-workers/
NPR. (2024, December 16). Amazon manipulated injury data, Senate investigation finds. NPR. https://www.npr.org/2024/12/16/nx-s1-5230240/amazon-injury-warehouse-senate-investigation
Strategic Organizing Center. (2023). In denial: Amazon's failure to fix its injury crisis. SOC. https://warehouseworkers.org/wp-content/uploads/2023/04/SOC_In-Denial_Amazon-Injury-Report-April-2023.pdf
University of Illinois Chicago, Center for Urban Economic Development. (2023). Pain points: The human cost of Amazon's worker surveillance system. CUED. https://cued.uic.edu/pain-points/
Vleugels, W., De Witte, H., & Forrier, A. (2025). Algorithmic management and psychological distress at work. International Archives of Occupational and Environmental Health, 98(2), 145–162. https://doi.org/10.1007/s00420-025-02180-5
Eurofound. (2023). Algorithmic management and its implications for working conditions. Publications Office of the European Union. https://doi.org/10.2806/078899
Kellogg, K. C., Valentine, M. A., & Christin, A. (2020). Algorithms at work: The new contested terrain of control. Academy of Management Annals, 14(1), 366–410. https://doi.org/10.5465/annals.2018.0174