La IA rechazó tu CV antes de que un humano lo viera: discriminación algorítmica en la contratación

Por David Hurtado
Chief Possibility Officer (CPO) Fundador — Integrity-Led Futures | Integridad Artificial
Maestrando en Diseño de Futuros | Especialista en IA, Ciencia de Datos y Arquitecto de Soluciones


En agosto de 2023 ocurrió algo histórico en el sistema judicial de los Estados Unidos: la Comisión de Igualdad de Oportunidades de Empleo (EEOC) alcanzó el primer acuerdo judicial por discriminación de inteligencia artificial en procesos de contratación. Una empresa de tutoría virtual había programado su software de reclutamiento para rechazar automáticamente candidatos mayores de cierta edad. Ni siquiera los revisaba un humano. La IA los descartaba antes de que alguien leyera su currículum. La multa fue de $365,000 dólares (Sullivan & Cromwell, 2023).

Pero ese caso, que debería haber sacudido a los departamentos de RRHH en todo el mundo, fue solo la punta del iceberg.

El sesgo que nadie programó y que todos heredaron

La discriminación algorítmica en contratación rara vez es intencional. Nadie escribe el código que dice "rechazar candidatos negros" o "descalificar mujeres mayores de 35 años". Lo que ocurre es más sutil, más difícil de ver y, precisamente por eso, más peligroso.

Los modelos de selección de candidatos se entrenan con datos históricos de contratación. Aprenden a reconocer a los candidatos que la empresa ha contratado exitosamente en el pasado y a replicar ese patrón. El problema es que esos datos históricos son el espejo de las decisiones de reclutadores humanos que, durante décadas, operaron con sesgos conscientes e inconscientes: preferían nombres anglosajones sobre nombres de origen latinoamericano o africano, favorecían candidatos masculinos para roles técnicos, descalificaban implícitamente a candidatos con brechas en su historial laboral (que en muchos casos son mujeres que tomaron tiempo para el cuidado familiar).

El algoritmo aprende esos patrones. Los generaliza. Los aplica a escala masiva. Y los hace invisibles porque ya no hay un ser humano que tome la decisión: es "el sistema".

Un estudio que analizó sistemas de selección de candidatos basados en IA encontró que los modelos preferían currículums con nombres asociados estadísticamente a personas blancas en el 85% de los casos. Nombres asociados a personas negras eran favorecidos solo en el 9%. Los modelos también mostraron preferencia por nombres masculinos sobre femeninos en roles técnicos (Dastin, 2018; Reworked, 2024).

Esto no es un defecto del algoritmo. Es el algoritmo funcionando correctamente: aprendió exactamente lo que los datos históricos le enseñaron. El defecto está en la ausencia de auditoría.

El caso Workday y la responsabilidad del proveedor

En 2024, el caso Mobley v. Workday planteó por primera vez ante los tribunales estadounidenses una pregunta que las empresas de tecnología habían evitado: ¿puede una empresa proveedora de software de IA ser considerada legalmente responsable de la discriminación que genera su sistema?

Derek Mobley, un hombre afroamericano mayor de 40 años con discapacidad, demandó a Workday alegando que su software de selección de candidatos —usado por cientos de empresas— lo discriminaba sistemáticamente por raza, edad y discapacidad. El tribunal permitió que el caso avanzara, determinando que Workday podía tener responsabilidad legal como "agente" de los empleadores que usaban su IA para tomar decisiones de contratación (FairNow, 2024).

La implicación es de largo alcance: si el tribunal confirma la responsabilidad del proveedor, los fabricantes de herramientas de IA para RRHH ya no podrán escudarse en que "la empresa cliente es responsable del uso". La cadena de responsabilidad se extiende hasta el diseño del producto.

Desde la perspectiva de la Integridad Artificial, esto era predecible. La integridad de datos exige que cualquier sistema de IA que tome o influya decisiones sobre personas sea auditado para detectar sesgos antes de entrar en operación, y monitoreado continuamente durante su uso. Si el proveedor no garantiza esa auditoría y el cliente tampoco la exige, ambos comparten la responsabilidad por el daño generado.

Nueva York establece el estándar: auditorías obligatorias de sesgo

En julio de 2023, la ciudad de Nueva York comenzó a aplicar la Local Law 144, la primera ley en Estados Unidos que exige auditorías independientes de sesgo en herramientas automatizadas de decisión de empleo (Automated Employment Decision Tools, AEDT). Las empresas que usen IA en sus procesos de contratación o promoción deben publicar anualmente los resultados de una auditoría de impacto de sesgo realizada por un tercero independiente (American Bar Association, 2024).

La ley tiene tres implicaciones prácticas inmediatas:

Primera: la opacidad algorítmica ya no es una defensa legal válida. Las empresas no pueden decir "no sabemos cómo funciona el sistema, es del proveedor". Tienen la obligación de saber.

Segunda: el sesgo no auditado se convierte en negligencia documentable. Si una empresa usa una herramienta de IA sin haber realizado una auditoría de sesgo y esa herramienta genera discriminación, la ausencia de auditoría es evidencia de negligencia.

Tercera: la transparencia hacia los candidatos es exigible. Los candidatos sometidos a procesos de selección automatizados tienen derecho a saber que están siendo evaluados por un sistema de IA.

Lo que la Integridad Artificial resuelve

Las organizaciones que implementan procesos de selección de candidatos con IA enfrentan una tensión real: los algoritmos de filtrado son extraordinariamente eficientes para manejar volúmenes masivos de aplicaciones, pero sin auditoría de integridad pueden estar discriminando sistemáticamente a grupos protegidos sin que nadie en la organización lo sepa.

El framework de Integridad Artificial propone un proceso de tres momentos:

Antes de implementar: auditoría de sesgo del modelo en condiciones controladas. Se analizan los resultados del algoritmo sobre conjuntos de datos de prueba con candidatos ficticios que difieren únicamente en variables protegidas (edad, género, etnia, nombre) para detectar patrones de discriminación estadísticamente significativos.

Durante la operación: monitoreo continuo de las tasas de selección por grupo demográfico. Si el algoritmo selecciona candidatos de un grupo a una tasa significativamente menor que otro, sin justificación de mérito verificable, se genera una alerta de sesgo que requiere intervención humana.

Después de cada ciclo: revisión del impacto acumulado. ¿Qué perfil de candidato está siendo sistemáticamente excluido? ¿Coincide con algún grupo protegido? ¿Hay correlaciones entre variables que parecen neutras (código postal, institución educativa, gap en el historial) y variables protegidas?

Este proceso no elimina la eficiencia del sistema. La combina con equidad auditada, que es exactamente lo que la Integridad Artificial significa: no prescindir de la tecnología, sino asegurarse de que la tecnología no trate a las personas como si algunas valieran menos que otras.

El argumento de negocio que los CHROs necesitan escuchar

La discriminación algorítmica no es solo un riesgo ético. Es un riesgo financiero, reputacional y de talento.

Riesgo financiero: el primer acuerdo EEOC costó $365,000. Los costos del caso Workday, si se confirma la responsabilidad del proveedor, podrían ser exponencialmente mayores. Las demandas colectivas por discriminación algorítmica son el siguiente horizonte del litigio laboral.

Riesgo de talento: cuando un sistema de IA discrimina sistemáticamente ciertos perfiles, la organización se priva de ese talento. Si el modelo aprendió a descartar candidatas mayores de 35 años para roles de liderazgo, la empresa está perdiendo exactamente el perfil que más necesita: profesionales con experiencia y madurez.

Riesgo reputacional: en un mercado laboral donde la marca empleadora importa, que tu empresa aparezca vinculada a discriminación algorítmica tiene costos de atracción de talento que ninguna campaña de employer branding puede revertir fácilmente.

La pregunta que ningún CHRO debería poder eludir en 2026 es esta: ¿Has auditado los sesgos del algoritmo que contrata por ti? ¿Puedes demostrar que no discrimina?

Si la respuesta es no, ya sabes qué hacer a continuación.


Referencias

American Bar Association. (2024, April). Navigating the AI employment bias maze. Business Law Today. https://www.americanbar.org/groups/business_law/resources/business-law-today/2024-april/navigating-ai-employment-bias-maze/

Dastin, J. (2018, October 10). Amazon scraps secret AI recruiting tool that showed bias against women. Reuters. https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G

FairNow. (2024). Workday lawsuit over AI hiring bias: What you need to know. https://fairnow.ai/workday-lawsuit-resume-screening/

Quinn Emanuel Urquhart & Sullivan. (2024). When machines discriminate: The rise of AI bias lawsuits. https://www.quinnemanuel.com/the-firm/publications/when-machines-discriminate-the-rise-of-ai-bias-lawsuits/

Reworked. (2024). Why AI hiring discrimination lawsuits are about to explode. https://www.reworked.co/talent-management/why-ai-hiring-discrimination-lawsuits-are-about-to-explode/

Sullivan & Cromwell LLP. (2023). EEOC settles first AI discrimination lawsuit. https://www.sullcrom.com/insights/blogs/2023/August/EEOC-Settles-First-AI-Discrimination-Lawsuit

Vleugels, W., De Witte, H., & Forrier, A. (2025). Algorithmic management and psychological distress at work. International Archives of Occupational and Environmental Health, 98(2), 145–162. https://doi.org/10.1007/s00420-025-02180-5