De la ética de datos a la Integridad Artificial: una evolución necesaria e inevitable

Por David Hurtado
Chief Possibility Officer (CPO) Fundador — Integrity-Led Futures | Integridad Artificial
Maestrando en Diseño de Futuros | Especialista en IA, Ciencia de Datos y Arquitecto de Soluciones


Las disciplinas evolucionan porque los problemas evolucionan. La medicina evolucionó de la cirugía de campo abierto a la cirugía laparoscópica no porque los cirujanos fueran insatisfactorios, sino porque la tecnología cambió lo que era posible y el concepto de lo que era tolerable cambió con ella. La contabilidad evolucionó de los libros de registro manuales a los sistemas ERP no porque los contadores no cumplieran su función, sino porque la escala y la complejidad de las operaciones superaron las capacidades del instrumento previo.

La ética de datos — el campo que emergió en los años noventa para gestionar las implicaciones éticas del uso de información digital — está pasando por ese mismo proceso de evolución. No porque haya fallado en lo que se propuso hacer. Sino porque el problema que enfrenta en 2026 es cualitativamente diferente del que abordó en 1995 o en 2010. Y el instrumento necesario para gestionarlo también necesita ser cualitativamente diferente.

Ese instrumento es la Integridad Artificial.

La ética de datos: una disciplina nacida para un mundo anterior

La ética de datos emergió en respuesta a los primeros grandes debates sobre privacidad digital: el derecho a no ser rastreado, el derecho a que los datos personales no se usaran para propósitos no autorizados, el derecho al olvido. Fue una respuesta a la pregunta "¿qué podemos hacer con los datos de las personas?" y su respuesta fue: "solo lo que ellas han autorizado, de la manera que han consentido y por el tiempo que sea necesario para el propósito declarado."

Ese marco fue, y sigue siendo, esencial. El RGPD europeo y sus equivalentes en múltiples jurisdicciones son la expresión jurídica de ese marco, y han producido cambios significativos en la manera en que las organizaciones gestionan la información personal.

Pero la ética de datos, en su formulación clásica, tiene un límite estructural que se hace evidente cuando los algoritmos dejan de ser solo herramientas de procesamiento de datos y se convierten en gestores activos de personas: la ética de datos pregunta "¿qué hacemos con los datos?" pero no pregunta "¿qué le pasa a la persona cuando el algoritmo actúa sobre ella?"

Esa es la pregunta que la Integridad Artificial añade.

Las tres evoluciones que marcan la transición

La transición de la ética de datos a la Integridad Artificial no es una ruptura. Es una evolución en tres dimensiones que amplían el campo sin abandonar sus fundamentos:

Evolución 1 — De la privacidad al bienestar

La ética de datos se centra en la privacidad: el derecho del individuo a controlar el flujo de su información. Es un derecho pasivo, de protección. La Integridad Artificial incorpora el bienestar: el derecho del individuo a no ser dañado por los sistemas que toman decisiones sobre él, incluso cuando esos sistemas operan con información autorizada y protegida. Es un derecho activo, de protección del impacto.

Un sistema de evaluación de desempeño puede operar con todos los datos correctamente consentidos y protegidos — ética de datos: OK — mientras genera tecnoestrés severo, sesgos estadísticos y ausencia de supervisión humana. Integridad Artificial: falla en tres dimensiones. La ética de datos ve verde. La Integridad Artificial ve rojo.

Evolución 2 — Del individuo al colectivo

La ética de datos opera principalmente en el nivel del individuo: sus datos, sus derechos, su consentimiento. La Integridad Artificial opera también en el nivel colectivo: ¿qué le pasa al equipo? ¿Hay sesgos sistemáticos que afectan a grupos de trabajadores de manera diferenciada? ¿El sistema genera patrones de exclusión que se distribuyen de manera no aleatoria entre categorías de personas?

El sesgo algorítmico no es un problema individual. Es un problema estadístico que solo puede detectarse cuando se analizan los patrones de resultado del sistema sobre grupos de personas. Sin esa perspectiva colectiva, los problemas de equidad son invisibles: cada caso parece individual y arbitrario, pero el patrón solo emerge cuando se miran todos juntos.

Evolución 3 — Del dato estático al sistema dinámico

La ética de datos gestiona datos: información almacenada, procesada, transferida. La Integridad Artificial gestiona sistemas: algoritmos que toman decisiones en tiempo real, que aprenden de sus propios resultados, que interactúan con el comportamiento humano y que producen efectos que retroalimentan el sistema. Un sistema dinámico no puede gestionarse con los mismos instrumentos que un dato estático.

La diferencia entre gestionar un dataset y gestionar un algoritmo de gestión de personas es la diferencia entre gestionar un mapa y gestionar un territorio vivo. Los datos pueden auditarse una vez y quedar "limpios". Los algoritmos necesitan monitoreo continuo porque sus resultados cambian cuando cambian los datos que los alimentan, cuando el comportamiento de los trabajadores se adapta al sistema o cuando el sistema mismo se actualiza.

Los instrumentos de la Integridad Artificial que la ética de datos no tiene

La Integridad Artificial no solo amplía el campo conceptualmente. Genera instrumentos específicos para los problemas específicos de la gestión algorítmica de personas:

El IAI Score: una métrica compuesta que captura en un número único — con cinco dimensiones desglosadas — el nivel de madurez de la integridad algorítmica de una organización. La ética de datos no tiene un equivalente: no existe un "DPO Score" que mida con la misma integralidad la madurez en protección de datos.

El Índice de Tecnoestrés (ITE): un instrumento de medición del impacto psicológico específico de la gestión algorítmica, con umbrales de alerta calibrados empíricamente. La ética de datos no mide impacto psicológico porque no es su dominio.

El análisis estadístico de sesgo con tests formales: la aplicación de Mann-Whitney, Kruskal-Wallis y análisis de impacto dispar al campo de la evaluación de desempeño algorítmico. La ética de datos tiene instrumentos para detectar "uso no autorizado" de datos. No tiene instrumentos para detectar "uso que produce discriminación estadística no intencional".

El protocolo de Human-in-the-Loop verificado: el proceso de evaluación de la supervisión humana real sobre decisiones críticas del sistema. La ética de datos tiene protocolos de consentimiento. No tiene protocolos de verificación de que un ser humano con criterio y autoridad revisó la decisión del algoritmo que afectó la vida laboral de una persona.

Por qué la evolución es inevitable

Las disciplinas que no evolucionan con los problemas que buscan gestionar se vuelven irrelevantes. La ética de datos que no integra la gestión algorítmica de personas seguirá siendo válida para los problemas que ya gestiona — y esos problemas son reales y siguen siendo urgentes —, pero dejará fuera de su campo exactamente el dominio donde los algoritmos producen el mayor daño a las personas en los entornos laborales.

La Integridad Artificial no es el reemplazo de la ética de datos. Es su extensión necesaria al dominio donde los sistemas de IA dejan de ser herramientas de procesamiento de información y se convierten en gestores activos de las condiciones de trabajo, de las evaluaciones de desempeño y de las trayectorias laborales de millones de personas.

Esa extensión no es opcional. La velocidad de adopción de la gestión algorítmica en los entornos laborales — la misma velocidad que hace que en 2026 el 60% de las empresas medianas y grandes del mundo usar algún sistema de IA para gestionar el desempeño de sus empleados — demanda que los instrumentos éticos evolucionen a la misma velocidad.

La Integridad Artificial es esa evolución. Y Integrity-Led Futures es el espacio donde esa evolución toma forma operativa, metodológica y verificable.

El territorio del trabajo ya cambió. Los instrumentos para gestionarlo con integridad también tienen que cambiar.


Referencias

Diakopoulos, N. (2016). Accountability in algorithmic decision making. Communications of the ACM, 59(2), 56–62. https://doi.org/10.1145/2844110

European Parliament. (2024). Regulation (EU) 2024/1689 on artificial intelligence (AI Act). Official Journal of the European Union.

Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., ... & Vayena, E. (2018). AI4People — An ethical framework for a good AI society. Minds and Machines, 28(4), 689–707. https://doi.org/10.1007/s11023-018-9482-5

Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2), 1–21. https://doi.org/10.1177/2053951716679679

OECD. (2019). Recommendation of the Council on Artificial Intelligence. OECD Legal Instruments.

Vleugels, W., De Witte, H., & Forrier, A. (2025). Algorithmic management and psychological distress at work. International Archives of Occupational and Environmental Health, 98(2), 145–162. https://doi.org/10.1007/s00420-025-02180-5

Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. PublicAffairs.