Integridad Artificial no es ciberseguridad: es algo más humano que eso
Por David Hurtado
Chief Possibility Officer (CPO) Fundador — Integrity-Led Futures | Integridad Artificial
Maestrando en Diseño de Futuros | Especialista en IA, Ciencia de Datos y Arquitecto de Soluciones
Cuando presento el concepto de Integridad Artificial a directivos por primera vez, casi inevitablemente ocurre lo mismo: asienten, sonríen y dicen algo como "sí, algo parecido a lo que hace nuestro equipo de ciberseguridad" o "entendido, como una política de gobernanza de datos".
No. No es lo mismo. No es parecido. Y la diferencia no es semántica.
Confundir la Integridad Artificial con la ciberseguridad o con la gobernanza de datos es el error conceptual que más frecuentemente impide que las organizaciones vean el riesgo real que están gestionando — o más frecuentemente, ignorando — cuando implementan sistemas algorítmicos de gestión laboral sin auditoría de integridad.
Entender con precisión qué es IAI y qué no es, es el primer paso para poder usarla como herramienta de gestión real.
Lo que protege la ciberseguridad (y lo que no protege)
La ciberseguridad protege el sistema de amenazas externas. Su pregunta central es: ¿cómo impedimos que actores no autorizados accedan, alteren o destruyan nuestros sistemas de información?
La ciberseguridad es extraordinariamente importante. Y sus herramientas — firewalls, encriptación, detección de intrusiones, gestión de identidades y accesos — son indispensables en cualquier organización que opera con infraestructura digital.
Pero la ciberseguridad no se pregunta: ¿el sistema que funciona perfectamente, sin ninguna intrusión externa, sin ningún hackeo, sin ninguna vulnerabilidad técnica detectada, está causando daño a las personas que trabajan bajo él? Esa pregunta está fuera de su alcance por diseño.
Un sistema de monitoreo de productividad que opera sin ninguna brecha de seguridad, que cumple todas las normas de protección de datos, que nadie externo ha podido hackear — puede estar generando tecnoestrés severo en los trescientos empleados que trabajan bajo su vigilancia constante, discriminando estadísticamente a las mujeres mayores de cuarenta años en sus evaluaciones de desempeño y eliminando toda capacidad de supervisión humana sobre sus decisiones. Todo eso sin que la ciberseguridad tenga nada que reportar, porque desde su perspectiva, el sistema funciona perfectamente.
Lo que protege la gobernanza de datos (y lo que no protege)
La gobernanza de datos gestiona cómo se recopilan, almacenan, procesan y comparten los datos dentro de la organización, con énfasis en privacidad, cumplimiento del RGPD y calidad de la información.
Es, también, indispensable. Y también tiene un límite claro que la deja fuera del territorio de la Integridad Artificial.
La gobernanza de datos pregunta: ¿estamos recopilando datos de forma legal? ¿Tenemos el consentimiento adecuado? ¿Los datos están protegidos contra acceso no autorizado? ¿Se eliminan cuando ya no son necesarios?
No pregunta: ¿los datos que recopilamos de nuestros empleados, recopilados con todo el consentimiento legal requerido y almacenados con todas las medidas de seguridad apropiadas, están siendo usados de una manera que daña su salud mental, viola su dignidad o genera discriminación estadística en las decisiones que los afectan?
Esa brecha — entre la legalidad de la recopilación y el impacto humano del uso — es exactamente donde opera la Integridad Artificial.
Lo que protege la ética de IA genérica (y sus límites)
El campo de la "ética de IA" ha crecido exponencialmente en los últimos años. Principios, frameworks, manifiestos y declaraciones proliferan: "IA responsable", "IA centrada en el ser humano", "IA justa y transparente". Las organizaciones más grandes del mundo han publicado sus propios principios de IA ética.
El problema con la ética de IA genérica es su nivel de abstracción. Los principios existen. La operacionalización frecuentemente no. Decir que tu empresa cree en una "IA justa" no le dice nada a nadie sobre si el algoritmo que asigna turnos en tu call center genera el doble de estrés en los agentes con más de diez años en el equipo que en los recién ingresados.
La Integridad Artificial es ética de IA aplicada al contexto específico de la gestión laboral, con metodología de medición, instrumentos de diagnóstico, indicadores cuantificables y rutas de acción concretas. No es un conjunto de valores declarados. Es un sistema de gestión.
Qué es específicamente la Integridad Artificial
Con la demarcación clara de lo que IAI no es, la definición de lo que sí es resulta más precisa:
La Integridad Artificial es la coherencia verificable entre la lógica de los sistemas algorítmicos de gestión laboral y los valores, obligaciones legales y estándares de bienestar humano que la organización declara y a los que está sujeta.
Tiene tres características que la distinguen de los campos adyacentes:
1. Su unidad de análisis es el trabajador, no el sistema. La IAI pregunta "¿qué le pasa a la persona que trabaja bajo este algoritmo?" en lugar de "¿cómo funciona el algoritmo?". El algoritmo importa en la medida en que su funcionamiento tiene consecuencias sobre la salud, la dignidad y la equidad de las personas que gestiona.
2. Produce evidencia cuantificable, no declaraciones de principios. El IAI Score, el Índice de Tecnoestrés, el análisis estadístico de sesgos — son instrumentos que producen números que el directorio puede gestionar, que el área jurídica puede usar como evidencia de diligencia debida y que el área de RRHH puede convertir en planes de acción.
3. Actúa en el presente, sobre sistemas en operación. La ciberseguridad previene ataques futuros. La gobernanza de datos gestiona el pasado (qué se recopiló) y el futuro (qué se recopilará). La Integridad Artificial audita lo que está pasando ahora: qué está haciendo el sistema que opera hoy sobre las personas que trabajan hoy.
Las cinco preguntas que solo la Integridad Artificial responde
Para trazar con más precisión la frontera de la IAI respecto a los campos adyacentes, hay cinco preguntas que solo la Integridad Artificial está diseñada para responder:
1. ¿Los KPIs que establece el sistema algorítmico son humanamente sostenibles para los trabajadores que deben cumplirlos?
2. ¿Hay sesgos estadísticos por género, edad, etnia u otras variables protegidas en los resultados del sistema de evaluación?
3. ¿Entienden los trabajadores qué datos recopila el sistema sobre ellos y cómo esos datos influyen en su evaluación y en las decisiones que los afectan?
4. ¿Hay seres humanos con autoridad real que puedan revisar y revertir las decisiones críticas del sistema antes de que afecten a las personas?
5. ¿Las transiciones, alertas y decisiones relevantes que el sistema genera son comunicadas por personas con responsabilidad humana, o solo por notificaciones automatizadas?
Ninguna de estas preguntas las responde la ciberseguridad. Ninguna las responde la gobernanza de datos. Ninguna las responde la ética de IA genérica. Todas las responde la Integridad Artificial.
Y ninguna organización que use sistemas algorítmicos de gestión laboral en 2026 puede permitirse no tener las respuestas.
Referencias
European Parliament. (2024). Regulation (EU) 2024/1689 on artificial intelligence (AI Act). Official Journal of the European Union.
Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., ... & Vayena, E. (2018). AI4People — An ethical framework for a good AI society. Minds and Machines, 28(4), 689–707. https://doi.org/10.1007/s11023-018-9482-5
IEEE. (2019). Ethically aligned design: A vision for prioritizing human well-being with autonomous and intelligent systems (1st ed.). IEEE.
Kellogg, K. C., Valentine, M. A., & Christin, A. (2020). Algorithms at work: The new contested terrain of control. Academy of Management Annals, 14(1), 366–410. https://doi.org/10.5465/annals.2018.0174
OECD. (2019). Recommendation of the Council on Artificial Intelligence. OECD Legal Instruments.
Vleugels, W., De Witte, H., & Forrier, A. (2025). Algorithmic management and psychological distress at work. International Archives of Occupational and Environmental Health, 98(2), 145–162. https://doi.org/10.1007/s00420-025-02180-5
Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. PublicAffairs.