Del casco a la pantalla: cómo evoluciona la Seguridad y Salud en el Trabajo en la era algorítmica
Por David Hurtado
Chief Possibility Officer (CPO) Fundador — Integrity-Led Futures | Integridad Artificial
Maestrando en Diseño de Futuros | Especialista en IA, Ciencia de Datos y Arquitecto de Soluciones
Cuando los primeros marcos normativos de Seguridad y Salud en el Trabajo comenzaron a consolidarse en el siglo XX, el paradigma era simple y necesario: proteger el cuerpo del trabajador de las amenazas físicas del entorno laboral. Las máquinas que podían cortar, aplastar o qumar. Las sustancias tóxicas. Las caídas. Las condiciones ergonómicas deficientes. Los riesgos eran tangibles, visibles y medibles con los instrumentos de la época.
Ese paradigma produjo avances extraordinarios. Las tasas de accidentalidad y mortalidad laboral en los países con marcos de SST robustos se redujeron dramáticamente a lo largo del siglo XX. Los cascos, los arneses, las normas de ergonomía física, los protocolos de manejo de sustancias peligrosas, los sistemas de ventilación — todo ese arsenal de protección física transformó radicalmente las condiciones de trabajo en la industria y en otros sectores de alto riesgo.
Y ahora el mundo del trabajo ha cambiado de manera tan fundamental que el paradigma de SST necesita expandirse con la misma profundidad con que cambió en el siglo XX. No para reemplazar lo anterior — los riesgos físicos siguen siendo reales y requieren toda la atención del marco normativo —, sino para añadir una dimensión que no existía en esa forma cuando los primeros marcos normativos se diseñaron: los riesgos algorítmicos.
Los nuevos riesgos que el casco no puede proteger
Los riesgos que emergen de la gestión algorítmica del trabajo no son físicos en su origen. Son psicosociales, cognitivos y relacionales. Y aunque sus efectos terminan siendo también físicos — el estrés crónico tiene consecuencias cardiovasculares, inmunológicas y musculoesqueléticas bien documentadas —, su mecanismo de daño es diferente y requiere herramientas de prevención diferentes.
El tecnoestrés — el estrés específicamente asociado al uso de tecnología y a la operación bajo sistemas de gestión algorítmica — es reconocido desde 2019 por la Organización Mundial de la Salud como un riesgo psicosocial en el trabajo (OMS, 2019). No es "estrés normal" que los trabajadores deben aprender a manejar. Es una condición inducida por el diseño del sistema de trabajo, que puede y debe ser prevenida con herramientas de SST adecuadas.
La fatiga cognitiva inducida por vigilancia constante es un riesgo que los marcos de SST tradicionales no capturan porque no tiene un signo físico inmediatamente observable. El trabajador no presenta un hueso roto ni una herida visible. Presenta una capacidad de atención deteriorada, una toma de decisiones más lenta y menos precisa y una mayor propensión al error — con consecuencias que en entornos de alto riesgo pueden ser graves.
La ansiedad de evaluación — el estado de alerta cognitiva crónica generado por la conciencia de ser monitoreado y evaluado en tiempo real — es un estresor de primer orden que la SST tradicional no tiene protocolos para gestionar, porque no tiene protocolos para el tipo de "peligro" que lo genera: no es una maquinaria que puede bloquearse o señalizarse; es un sistema de información que opera continuamente.
El miedo al reemplazo — la incertidumbre persistente sobre la continuidad del empleo generada por la automatización — produce un estado de estrés anticipatorio crónico con efectos documentados en la salud mental que la SST tradicional tampoco ha integrado en sus herramientas de evaluación de riesgos.
Lo que la SST 3.0 requiere
El campo de la Seguridad y Salud en el Trabajo ha evolucionado históricamente en oleadas. La SST 1.0 fue la SST física: el casco, el arnés, la señalización. La SST 2.0 incorporó los riesgos psicosociales clásicos: el acoso laboral, el burnout por sobrecarga, el estrés por falta de recursos. La SST 3.0 es la SST de la era algorítmica: la gestión de los riesgos que emergen de la interacción entre los trabajadores y los sistemas de inteligencia artificial que los gestionan.
La SST 3.0 requiere tres expansiones del marco tradicional:
Expansión 1 — Nuevas categorías de riesgos: los formularios de evaluación de riesgos de SST deben incorporar dimensiones específicas para la gestión algorítmica: ¿Los KPIs que establece el sistema son humanamente sostenibles? ¿El sistema de monitoreo genera vigilancia continua que produce estrés crónico? ¿Hay mecanismos de apelación que permiten al trabajador ejercer agencia sobre su propia situación?
Expansión 2 — Nuevos instrumentos de medición: la SST tradicional usa instrumentos como el cuestionario SUSESO-ISTAS21 para medir riesgos psicosociales. La SST 3.0 requiere instrumentos adicionales específicos para la dimensión algorítmica: el Índice de Tecnoestrés (ITE), la escala de Gestión Algorítmica de Schmidt et al. (2025), los índices de transparencia y confianza en el sistema que el framework de Integridad Artificial usa como componentes del IAI Score.
Expansión 3 — Nuevas estrategias de intervención: si el riesgo es la opacidad del sistema, la intervención es la transparencia. Si el riesgo es la ausencia de supervisión humana, la intervención es el Human-in-the-Loop. Si el riesgo es la falta de agencia del trabajador, la intervención es el mecanismo de apelación real. Las intervenciones de la SST 3.0 no son medidas de protección física — son medidas de diseño organizacional y tecnológico que modifican el sistema en lugar de proteger al trabajador del sistema.
La Integridad Artificial como marco de SST 3.0
El framework de Integridad Artificial de ILF no es solo un servicio de auditoría de riesgos legales o un indicador para reportes ESG. Es, en su esencia más profunda, un marco de Seguridad y Salud en el Trabajo adaptado a los riesgos de la gestión algorítmica.
El Diagnóstico IAI Express es, en la práctica, una evaluación de riesgos psicosociales con dimensión algorítmica. La Auditoría Psico-Algorítmica es un proceso de identificación, cuantificación y priorización de riesgos de la misma naturaleza que el que exige la ISO 45001 para riesgos físicos. El Safe-AI Watch es el monitoreo continuo de los indicadores de bienestar, equivalente al monitoreo ambiental que la SST física realiza en entornos con agentes físicos o químicos.
Y el Sello de Certificación IAI es, en términos de SST, la certificación de que la organización ha implementado controles efectivos sobre los riesgos algorítmicos que sus sistemas generan.
La brecha que los profesionales de SST necesitan cerrar
Los profesionales de SST — médicos del trabajo, higienistas, psicólogos ocupacionales, coordinadores HSEQ — son los actores organizacionales más capacitados para liderar la transición hacia la SST 3.0. Tienen el marco conceptual de la prevención de riesgos. Tienen la legitimidad organizacional para exigir cambios en los sistemas de trabajo. Tienen los instrumentos para medir el daño.
Lo que frecuentemente no tienen todavía es el vocabulario específico de la gestión algorítmica, la comprensión de cómo los sistemas de IA generan los riesgos que están viendo en sus datos de ausentismo y rotación, y los instrumentos de evaluación adaptados a esa dimensión nueva.
El programa de formación de la Academia ILF — uno de los seis productos del portafolio de Integrity-Led Futures — está diseñado específicamente para cerrar esa brecha. No para convertir a los profesionales de SST en expertos en IA, sino para darles las herramientas conceptuales y metodológicas que necesitan para integrar la dimensión algorítmica en su práctica de prevención de riesgos.
El casco protegió a generaciones de trabajadores de riesgos físicos reales. La Integridad Artificial es la herramienta que puede proteger a la generación presente de los riesgos igualmente reales — aunque invisibles — de la era de los algoritmos.
Referencias
International Labour Organization. (2023). Safe and healthy working environments free from violence and harassment. ILO.
ISO. (2018). ISO 45001:2018 — Occupational health and safety management systems. International Organization for Standardization.
Karasek, R., & Theorell, T. (1990). Healthy work: Stress, productivity, and the reconstruction of working life. Basic Books.
Schmidt, F. A., Kirchner, S., & Niehaus, M. (2025). Algorithmic management: Psychological measurement and mental strain. BMC Psychology, 13(1). https://doi.org/10.1186/s40359-025-03680-2
Vleugels, W., De Witte, H., & Forrier, A. (2025). Algorithmic management and psychological distress at work. International Archives of Occupational and Environmental Health, 98(2), 145–162. https://doi.org/10.1007/s00420-025-02180-5
World Health Organization. (2019). Burn-out an occupational phenomenon: International Classification of Diseases. WHO. https://www.who.int/news/item/28-05-2019-burn-out-an-occupational-phenomenon-international-classification-of-diseases
World Health Organization. (2022). World mental health report: Transforming mental health for all. WHO Press.