El despido por aplicación: la falta de integridad más grave del management moderno

Por David Hurtado
Chief Possibility Officer (CPO) Fundador — Integrity-Led Futures | Integridad Artificial
Maestrando en Diseño de Futuros | Especialista en IA, Ciencia de Datos y Arquitecto de Soluciones


Hay un momento en la vida laboral que define el carácter de una organización más que cualquier declaración de valores o política de bienestar: el momento en que le dice a una persona que su trabajo en esa empresa ha terminado.

Ese momento requiere un ser humano que mire a otro ser humano a los ojos — o a la pantalla — y tenga la conversación con la dignidad que el vínculo laboral exige. No importa cuántos sistemas automatizados existan. No importa cuánta IA opere en el proceso. Al final, la terminación de una relación laboral es un acto humano, y delegar ese acto a un algoritmo es una falta de integridad que tiene consecuencias documentadas en la salud de las personas afectadas y en la cultura de las organizaciones que lo permiten.

El "despido por aplicación" — la práctica de terminar relaciones laborales mediante notificaciones automáticas, sin explicación clara, sin conversación humana y sin proceso de apelación real — no es solo un problema ético. Es un problema de salud pública, un riesgo legal creciente y una señal de alerta sobre la madurez de la gestión algorítmica de una organización.

Qué es exactamente el despido por aplicación

El término "despido por aplicación" abarca un espectro de prácticas que comparten un rasgo común: el sistema automatizado es el protagonista de la terminación, y el ser humano está ausente, reducido o es un mero trámite posterior.

En su forma más extrema — documentada en la economía de plataformas (Uber, Deliveroo, Amazon Flex, entre otras) — el algoritmo detecta un patrón de comportamiento que clasifica como inaceptable, genera una decisión de desactivación y la ejecuta instantáneamente. El trabajador recibe una notificación en su teléfono. No hay conversación previa. No hay posibilidad de explicar el contexto. El canal de apelación es un chatbot.

En su forma más sutil — presente en organizaciones formales que usan sistemas de evaluación de desempeño automatizados — el algoritmo genera una calificación de bajo rendimiento que activa automáticamente un proceso de desvinculación. El área de RRHH ejecuta el proceso, pero la decisión real la tomó el sistema días o semanas antes. El humano que firma la carta de terminación no entiende completamente qué midió el algoritmo ni si lo midió correctamente.

Ambas formas comparten el defecto de integridad central: la ausencia de Human-in-the-Loop real en la decisión más significativa que una organización puede tomar sobre una persona.

El daño psicológico está documentado

La investigación en psicología del trabajo es consistente en un hallazgo: la forma en que se comunica y gestiona la terminación laboral tiene un impacto en la salud mental del afectado que puede ser mayor que el propio hecho de perder el empleo (Leana & Feldman, 1992; Brockner et al., 2004).

Las variables que predicen el impacto psicológico de una terminación no son solo económicas. Son relacionales y de significado: ¿me trataron con dignidad? ¿Tuve la oportunidad de expresar mi perspectiva? ¿La decisión fue explicada de manera que puedo comprenderla y aceptarla o impugnarla? ¿Hubo un ser humano responsable con quien hablar?

Cuando la respuesta a todas esas preguntas es "no" — porque fue el algoritmo quien terminó la relación — el impacto psicológico se amplifica significativamente. La sensación de haber sido descartado por un sistema que no te conoce, que no consideró tu contexto y que no puede ser interpelado produce lo que los psicólogos llaman injusticia procedimental: la percepción de que el proceso en sí fue injusto, independientemente de si el resultado final era correcto o no.

Y la injusticia procedimental tiene efectos devastadores y duraderos en la salud mental, el sentido de identidad profesional y la capacidad de reinserción laboral del afectado.

El costo organizacional que nadie calcula

Las organizaciones que usan el despido por aplicación no solo generan daño al trabajador afectado. Generan daño a los trabajadores que permanecen. Y ese daño es más costoso y más difícil de recuperar.

Se llama efecto sobreviviente algorítmico: cuando los miembros de un equipo observan que un colega fue terminado de manera automatizada, sin proceso humano visible, sin explicación comprensible, el mensaje que perciben es claro: aquí las personas son reemplazables por defecto de sistema. La consecuencia es una disminución inmediata del sentido de seguridad psicológica, del compromiso y de la disposición a correr riesgos creativos.

Un equipo que vio a un colega "desactivado" por la IA no es el mismo equipo que era antes de ese evento. Y reconstruir la confianza erosionada cuesta más que cualquier ganancia de eficiencia que el sistema automatizado haya generado.

Lo que la Integridad Artificial establece como estándar irreductible

La Integridad Artificial define el despido por aplicación — la terminación gestionada exclusivamente por un sistema automatizado sin supervisión humana significativa — como una violación máxima de integridad en la gestión algorítmica. La razón es triple:

Viola la transparencia: el trabajador no sabe exactamente qué criterios determinaron la decisión, no puede verlos, no puede cuestionarlos y no puede acceder a la evidencia en que se basa.

Viola el Human-in-the-Loop: ningún ser humano con contexto, criterio y responsabilidad moral ha revisado la decisión antes de ejecutarla. La "supervisión humana" que firma la carta de terminación es cosmética si no entiende los criterios del sistema.

Viola la comunicación ética: la relación laboral es un contrato social que se construye entre personas. Su terminación requiere comunicación humana directa, no una notificación automatizada.

El estándar que la Integridad Artificial propone para la terminación laboral en entornos con gestión algorítmica tiene cuatro componentes no negociables:

1. El algoritmo puede generar alertas, nunca ejecutar terminaciones. Si un sistema de evaluación de desempeño detecta patrones preocupantes, puede generar una alerta para revisión humana. La decisión de terminar la relación laboral pertenece exclusivamente a un ser humano con autoridad, contexto y responsabilidad.

2. La persona responsable debe entender los criterios del sistema. No es suficiente que un líder firme una terminación porque el sistema lo generó. El líder debe poder explicar qué midió el sistema, cómo lo midió y por qué esa medición es válida en el contexto específico del trabajador.

3. Siempre debe haber una conversación humana previa a la ejecución. Sin excepciones. Sin importar el nivel del cargo o la modalidad contractual. La persona afectada tiene derecho a ser informada por un ser humano, no por una notificación de sistema.

4. Debe existir un canal real de apelación. El trabajador debe poder impugnar la decisión ante un ser humano con capacidad real de revisarla y revertirla. Un árbol de decisión automatizado no es un canal de apelación real.

El AI Act y la regulación que viene

El AI Act europeo clasifica los sistemas de IA que influyen en decisiones de terminación laboral como sistemas de "alto riesgo" y establece obligaciones específicas de transparencia, supervisión humana y derecho de explicación para los trabajadores afectados. Las organizaciones que operan en Europa o que tienen relaciones contractuales con empresas europeas ya están en el radar regulatorio.

En América Latina, aunque la regulación específica sobre IA laboral es todavía incipiente, los Códigos Laborales existentes en la mayoría de los países de la región establecen el derecho del trabajador a conocer las causas de su terminación y a impugnarla. Un despido cuya causa real es una decisión algorítmica que el empleador no puede explicar tiene un riesgo de nulidad y de demanda laboral que los departamentos jurídicos subestiman.

La pregunta para el directorio no es si pueden usar algoritmos para apoyar decisiones de desvinculación. Pueden. La pregunta es si pueden garantizar que esos algoritmos operan con la transparencia, la equidad y la supervisión humana que convierten su uso en un activo en lugar de un pasivo.

Si no pueden garantizarlo, ya saben cuál es el siguiente paso.


Referencias

Brockner, J., Spreitzer, G., Mishra, A., Hochwarter, W., Pepper, L., & Weinberg, J. (2004). Perceived control as an antidote to the negative effects of layoffs on survivors' organizational commitment and job performance. Administrative Science Quarterly, 49(1), 76–100. https://doi.org/10.2307/4131440

European Parliament. (2024). Regulation (EU) 2024/1689 on artificial intelligence (AI Act). Official Journal of the European Union.

Kellogg, K. C., Valentine, M. A., & Christin, A. (2020). Algorithms at work: The new contested terrain of control. Academy of Management Annals, 14(1), 366–410. https://doi.org/10.5465/annals.2018.0174

Leana, C. R., & Feldman, D. C. (1992). Coping with job loss: How individuals, organizations, and communities respond to layoffs. Lexington Books.

Prassl, J. (2018). Humans as a service: The promise and perils of work in the gig economy. Oxford University Press.

Rosenblat, A. (2018). Uberland: How algorithms are rewriting the rules of work. University of California Press.

Vleugels, W., De Witte, H., & Forrier, A. (2025). Algorithmic management and psychological distress at work. International Archives of Occupational and Environmental Health, 98(2), 145–162. https://doi.org/10.1007/s00420-025-02180-5