Por David Hurtado Chief Possibility Officer (CPO)
Fundador — Integrity-Led Futures | Integridad Artificial Maestrando en Diseño de Futuros | Especialista en IA, Ciencia de Datos y Arquitecto de Soluciones
Hay una cámara que te observa mientras trabajas desde casa. Analiza tus expresiones faciales. Detecta si te alejas del escritorio. Registra si alguien entra a tu habitación. Y si tu hijo cruza al fondo de la imagen, el sistema genera automáticamente una captura y la envía a tu supervisor.
No es una distopía. Es el sistema que Teleperformance — la empresa de call centers más grande del mundo, con más de 380,000 empleados en 88 países — implementó para monitorear a su fuerza laboral remota mediante inteligencia artificial (Cracked Labs, 2023).
El sistema escanea video en vivo durante todo el turno. Clasifica comportamientos en categorías de "infracción": ausencia del escritorio, usuario inactivo, uso no autorizado de teléfono móvil, presencia de personas no autorizadas en el área de trabajo. Cada infracción genera una alerta automática que llega al supervisor con evidencia visual adjunta.
La pregunta no es si el sistema funciona técnicamente. La pregunta es qué clase de organización queremos ser cuando decidimos vigilar a las personas dentro de sus hogares con cámaras potenciadas por inteligencia artificial, mientras sus hijos duermen en la habitación de al lado.
Lo que firmaron sin saber
El elemento más perturbador del caso Teleperformance no es la tecnología. Es el consentimiento. Los trabajadores firmaron contratos que autorizaban el monitoreo por cámaras con IA en sus hogares, el análisis de voz durante las llamadas y el almacenamiento de datos recopilados no solo de ellos sino también de sus familiares, incluidos menores (NBC News, 2021).
¿Por qué firmaron? Porque la alternativa era perder el empleo. En contextos de precariedad laboral y mercados de trabajo comprimidos, el "consentimiento" de un trabajador frente a condiciones abusivas no es consentimiento real. Es coerción con formato legal.
Desde el marco de la Integridad Artificial, esto representa una violación de integridad de diseño: el sistema fue construido con la intención declarada de "garantizar la seguridad de la información del cliente", pero en la práctica opera como un mecanismo de vigilancia punitiva que genera un impacto psicosocial severo y que erosiona sistemáticamente los límites entre vida laboral y vida privada.
El diseño del sistema no tenía como propósito proteger al trabajador. Tenía como propósito extraer el máximo control sobre su comportamiento en el menor margen posible de privacidad residual.
Los datos que describen el daño
La industria de los call centers es uno de los contextos laborales con mayor documentación sobre el impacto de la gestión algorítmica intensiva en la salud mental. Los datos son consistentes:
- El 87% de los agentes de call center reportan niveles altos de estrés relacionado con su trabajo (CX Today, 2023).
- Más del 50% experimenta burnout diario e insomnio con frecuencia alta.
- El 70% siente que los datos de rendimiento que el sistema recopila sobre ellos se usan para castigarlos, no para desarrollarlos (Cracked Labs, 2023).
- En el caso específico del monitoreo por IA, los estudios documentan un efecto denominado panopticon digital: la conciencia constante de estar siendo observado produce un estado de vigilancia interna permanente que, con el tiempo, genera ansiedad crónica, agotamiento cognitivo y deterioro del rendimiento (Christin, 2020).
El panopticon que Jeremy Bentham diseñó en el siglo XVIII como arquitectura carcelaria — la torre de vigilancia desde la que un guardián puede observar a todos los presos sin que ellos sepan si están siendo mirados — encontró su versión algorítmica en los sistemas de monitoreo por IA. Con una diferencia: el panopticon original solo operaba dentro de la prisión. El algoritmo de Teleperformance operaba dentro del hogar.
La respuesta regulatoria y sus límites
En Albania, el comisionado de protección de datos prohibió que Teleperformance usara cámaras para vigilar a los trabajadores en sus hogares, determinando que la práctica violaba las leyes de privacidad y dignidad laboral (Business & Human Rights Centre, 2021).
En Europa, el RGPD (Reglamento General de Protección de Datos) establece límites sobre la recopilación de datos biométricos y el monitoreo de espacios privados. Las sindicatos europeos han presentado múltiples denuncias contra la empresa, y varios organismos regulatorios han iniciado investigaciones.
Pero la regulación tiene un límite estructural: llega después del daño. Las leyes responden a prácticas ya establecidas. Para cuando un regulador prohíbe un sistema de vigilancia, miles de trabajadores ya han sido sometidos a él durante meses o años.
La Integridad Artificial propone una lógica inversa: auditar antes de implementar. Verificar, antes de que el sistema entre en operación, si el diseño respeta la privacidad del trabajador, si las métricas que genera son proporcionales al objetivo declarado y si el impacto psicosocial es humanamente aceptable.
Las tensiones que el monitoreo algorítmico genera y cómo resolverlas
La implementación de sistemas de monitoreo laboral por IA no es intrínsecamente ilegítima. Existen usos válidos: detección de fatiga en conductores de larga distancia, monitoreo de condiciones físicas en entornos de alto riesgo, verificación de cumplimiento de protocolos de seguridad en industrias críticas. La diferencia entre un uso íntegro y uno abusivo no está en la tecnología. Está en el propósito, la proporcionalidad y la transparencia.
Propósito: ¿El monitoreo está diseñado para proteger al trabajador o para controlarlo? Un sistema de alerta temprana de fatiga que avisa al operador y al supervisor cuando los indicadores biométricos sugieren agotamiento tiene un propósito de protección. Un sistema que registra cada segundo de inactividad para penalizar tiene un propósito de control.
Proporcionalidad: ¿La intensidad del monitoreo es proporcional al riesgo que se busca gestionar? Monitorear el tiempo de ciclo de un proceso industrial para detectar ineficiencias es diferente de escanear el rostro de un agente de call center cada diez segundos durante ocho horas.
Transparencia: ¿El trabajador sabe exactamente qué se monitorea, con qué frecuencia, qué se hace con esos datos y durante cuánto tiempo se conservan? En el caso Teleperformance, la respuesta era no en todos los casos.
Lo que la Integridad Artificial exige de los sistemas de monitoreo
El framework de Integridad Artificial establece condiciones mínimas para que un sistema de monitoreo laboral sea considerado íntegro:
-
Transparencia total hacia el trabajador: el empleado conoce qué datos se recopilan, con qué frecuencia, con qué propósito y quién tiene acceso a ellos.
-
Proporcionalidad verificada: la intensidad del monitoreo es auditada contra el objetivo declarado. Si el objetivo es la seguridad de la información del cliente, el monitoreo de expresiones faciales no es proporcional a ese objetivo.
-
Límite del espacio privado: el hogar del trabajador tiene un estatus de privacidad que ninguna relación laboral puede eliminar por completo. Los sistemas de monitoreo que operan dentro del hogar requieren un estándar de justificación más exigente.
-
Uso de datos para proteger, no para punir: los datos de monitoreo deben usarse primariamente para identificar condiciones de riesgo para el trabajador. Si el uso primario es disciplinario o de evaluación de desempeño, el sistema debe ser rediseñado.
-
Human-in-the-Loop en las alertas: ninguna infracción generada automáticamente por el sistema debe generar consecuencias disciplinarias sin que un ser humano con contexto haya evaluado el caso específico.
La pregunta que no podemos eludir
La pandemia aceleró el trabajo remoto y con él la tentación de exportar los sistemas de control del espacio físico de la oficina al espacio físico del hogar del trabajador. Teleperformance tomó esa decisión sin preguntarse si era ética. Solo preguntó si era técnicamente posible.
La Integridad Artificial exige una pregunta adicional, que debería ser siempre la primera: ¿Si el trabajador supiera exactamente qué hace este sistema, consideraría que lo trata con dignidad?
Si la respuesta es no, el sistema necesita ser rediseñado. No parcheado. Rediseñado.
Referencias
Business & Human Rights Resource Centre. (2021). Unions accuse Teleperformance of monitoring remote workers across Europe. https://www.business-humanrights.org/en/latest-news/unions-accuse-call-centre-giant-teleperformance-of-monitoring-surveilling-remote-workers-across-europe-incl-co-comments/
Christin, A. (2020). Counting clicks: Quantification and variation in web journalism in the United States and France. American Journal of Sociology, 123(5), 1382–1415. https://doi.org/10.1086/694945
Cracked Labs. (2023). Surveillance and algorithmic control in the call center: Technology-driven management of remote work. Cracked Labs. https://crackedlabs.org/dl/CrackedLabs_Christl_CallCenter.pdf
CX Today. (2023). The algorithm never blinks: Why contact center AI is creating a new kind of agent burnout. https://www.cxtoday.com/contact-center/the-algorithm-never-blinks-why-contact-center-ai-is-creating-a-new-kind-of-agent-burnout/
NBC News. (2021). Big tech call center workers face pressure to accept home surveillance. https://www.nbcnews.com/tech/tech-news/big-tech-call-center-workers-face-pressure-accept-home-surveillance-n1276227
Vleugels, W., De Witte, H., & Forrier, A. (2025). Algorithmic management and psychological distress at work. International Archives of Occupational and Environmental Health, 98(2), 145–162. https://doi.org/10.1007/s00420-025-02180-5
Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. PublicAffairs.