Las 5 preguntas que tu CHRO no puede responder sobre la IA de RRHH
Por David Hurtado
Chief Possibility Officer (CPO) Fundador — Integrity-Led Futures | Integridad Artificial
Maestrando en Diseño de Futuros | Especialista en IA, Ciencia de Datos y Arquitecto de Soluciones
He tenido esta conversación docenas de veces. Un CHRO con años de experiencia, comprometido genuinamente con el bienestar de su organización, sentado al otro lado de la mesa. Le hago cinco preguntas sobre los sistemas algorítmicos que operan en su área. Las primeras dos las responde con fluidez. La tercera, con algo de duda. La cuarta, con una pausa larga. La quinta, en silencio.
No porque sea un mal CHRO. Sino porque nadie le dio las herramientas para responderlas. Porque las implementaciones de IA en RRHH se vendieron como soluciones de eficiencia, y ningún proveedor incluyó en el manual de usuario un capítulo sobre el impacto en la salud mental de los empleados, los sesgos estadísticos del modelo o el protocolo de supervisión humana para decisiones críticas.
Estas cinco preguntas no son un examen. Son un diagnóstico. Y el valor de hacerlas — aunque incomoden — es que la organización que puede responderlas está genuinamente protegida. La que no puede, tiene trabajo urgente por hacer.
Pregunta 1: ¿Qué datos recopila exactamente el sistema sobre cada empleado, y esa persona lo sabe?
Esta parece simple. No lo es.
Los sistemas de gestión algorítmica modernos recopilan capas de datos que van mucho más allá de lo que aparece en el contrato o en el aviso de privacidad genérico: tiempo de actividad en plataformas digitales, velocidad de respuesta a correos, patrones de movimiento físico en instalaciones con sensores, calificaciones por pares en sistemas de feedback, análisis de sentimiento en comunicaciones escritas (en algunos sistemas más avanzados), biometría de fatiga en entornos con cámaras inteligentes, y docenas de variables adicionales que el proveedor del sistema considera relevantes.
La pregunta no es si técnicamente hay un aviso de privacidad. La pregunta es si el empleado entiende — en términos que le sean comprensibles, no en jerga legal — qué se recopila y cómo eso influye en su evaluación y en las decisiones que lo afectan.
Si la respuesta es "hay un aviso en el contrato de onboarding que firmaron hace tres años", la respuesta real es no.
Pregunta 2: ¿Puedes mostrarme la última auditoría de sesgos del sistema de evaluación?
Esta es la pregunta que más frecuentemente genera el silencio largo.
Los sistemas de evaluación de desempeño basados en algoritmos — y en 2026, la mayoría lo son en alguna medida — deben ser auditados periódicamente para verificar que no producen resultados diferenciados entre grupos de trabajadores que se diferencian en variables protegidas: género, edad, etnia, tipo de contrato, condición de salud.
La auditoría de sesgos no es una revisión visual de los resultados. Es un análisis estadístico formal — tests de Mann-Whitney, Kruskal-Wallis, análisis de impacto dispar — que establece con rigor matemático si hay diferencias significativas en los resultados del sistema entre grupos.
Si tu organización nunca ha hecho esa auditoría, el riesgo no es que "podría haber sesgo". El riesgo es que hay sesgo y no lo saben. Y en 2026, "no lo sabíamos" no es una defensa legal válida — es evidencia de negligencia.
Pregunta 3: ¿Hay un ser humano específico, con nombre y apellido, que tiene autoridad real para revertir una decisión del sistema antes de que afecte a un empleado?
Esta pregunta desnuda la diferencia entre supervisión humana declarada y supervisión humana real.
La respuesta habitual es algo como "sí, los managers revisan las evaluaciones del sistema". Entonces la siguiente pregunta es: ¿cuántas veces en el último año un manager revertió una decisión del sistema antes de que afectara a alguien? ¿Hay registro de esas reversiones?
Si no hay registro, la supervisión es nominal. El manager firma lo que el sistema ya decidió sin capacidad real de cuestionarlo, sin el tiempo para entenderlo y sin la información necesaria para hacerlo.
El AI Act europeo exige que la supervisión humana sea "significativa". Significativa implica comprensión real de la decisión, tiempo real para revisarla y autoridad real para revertirla. Si ninguno de esos tres elementos está presente, la supervisión es cosmética.
Pregunta 4: ¿Puedes mostrarme el protocolo documentado para comunicar a un empleado una decisión que fue influenciada por el sistema algorítmico?
Esta pregunta aborda la dimensión de comunicación ética de la Integridad Artificial.
Cuando el sistema genera una alerta de bajo rendimiento, una advertencia disciplinaria o una recomendación de desvinculación, ¿cómo llega esa información al empleado? ¿Hay un protocolo que establece que debe ser comunicada por una persona, con contexto, con posibilidad de diálogo, con tiempo para preguntas y con acceso a un proceso de apelación?
¿O llega como una notificación automatizada en el sistema de RRHH?
La respuesta a esta pregunta define si la organización trata a sus empleados como personas o como parámetros del sistema. No es una distinción menor. Tiene consecuencias medibles en la salud psicológica, en el compromiso y en la exposición legal de la organización.
Pregunta 5: ¿Tienes datos sobre el impacto del sistema en la salud mental de los equipos más expuestos a gestión algorítmica?
Esta es la última y, en muchos sentidos, la más reveladora.
Las organizaciones que implementan sistemas de evaluación o monitoreo algorítmico frecuentemente miden el impacto en productividad, eficiencia y cumplimiento de KPIs operativos. Raramente miden el impacto en el bienestar mental de los equipos que operan bajo esos sistemas.
Los estudios científicos son claros: la gestión algorítmica intensiva sin transparencia y sin supervisión humana real genera el doble de angustia psicológica en los trabajadores expuestos (Vleugels et al., 2025). Ese daño tiene costos directos e indirectos que suelen ser mayores que los beneficios de eficiencia que el sistema reporta.
Si la organización no mide el impacto en salud mental, no está midiendo el costo real del sistema. Está midiendo solo la mitad de la ecuación.
Lo que hacer con estas preguntas
El valor de estas cinco preguntas no es el diagnóstico en sí. Es lo que se hace con él.
Si puedes responder las cinco con evidencia — no con intuición, sino con datos, con documentos, con registros —, tu organización tiene un nivel de madurez en Integridad Artificial significativamente superior al promedio. Considera una auditoría formal para certificar ese nivel y comunicarlo como diferenciador.
Si no puedes responder tres o más de estas preguntas con evidencia, tienes un plan de trabajo. Empezar por las que más impactan el riesgo legal — la auditoría de sesgos y el protocolo de supervisión humana — y avanzar sistemáticamente hacia una posición de integridad verificada.
El Diagnóstico IAI Express de Integrity-Led Futures existe exactamente para ese propósito: en dos semanas, con metodología rigurosa y entregables accionables, producir las respuestas a estas preguntas desde los datos propios de tu organización.
Porque en 2026, no tener las respuestas ya no es neutral. Es un pasivo.
Referencias
American Bar Association. (2024, April). Navigating the AI employment bias maze. Business Law Today. https://www.americanbar.org/groups/business_law/resources/business-law-today/2024-april/navigating-ai-employment-bias-maze/
European Parliament. (2024). Regulation (EU) 2024/1689 on artificial intelligence (AI Act). Official Journal of the European Union.
Kellogg, K. C., Valentine, M. A., & Christin, A. (2020). Algorithms at work: The new contested terrain of control. Academy of Management Annals, 14(1), 366–410. https://doi.org/10.5465/annals.2018.0174
Thibaut, J., & Walker, L. (1975). Procedural justice: A psychological analysis. Lawrence Erlbaum Associates.
Vleugels, W., De Witte, H., & Forrier, A. (2025). Algorithmic management and psychological distress at work. International Archives of Occupational and Environmental Health, 98(2), 145–162. https://doi.org/10.1007/s00420-025-02180-5
Zerilli, J., Knott, A., Maclaurin, J., & Gavaghan, C. (2019). Transparency in algorithmic and human decision-making: Is there a double standard? Philosophy & Technology, 32, 661–683. https://doi.org/10.1007/s13347-018-0330-6