Luz Rodríguez, catedrática de la UCLM, sobre cómo los algoritmos discriminan a las mujeres en las promociones laborales: "Con estos datos de entrenamiento ascenderán los varones"
“Esto se llama, si lo hiciera una persona, discriminación indirecta”, asegura.

En cada vez más empresas, la inteligencia artificial ya no se limita a organizar tareas o agilizar procesos, sino que ahora empieza a colarse en decisiones que marcan la vida laboral de las personas. Desde quién pasa a la siguiente fase en una entrevista hasta quién logra un ascenso, los algoritmos están ganando peso en ámbitos donde antes decidían miradas humanas, con consecuencias que no siempre son tan neutrales como parecen.
En este contexto, la catedrática de Derecho del Trabajo y de la Seguridad Social de la Universidad de Castilla-La Mancha, Luz Rodríguez, advierte que esa aparente objetividad puede ser engañosa. Según explica, los algoritmos no solo analizan datos, sino que aprenden de ellos, y si esos datos reflejan desigualdades previas, el resultado puede ser un sistema que continúe dicha discriminación, especialmente hacia las mujeres.
En una entrevista con Cadena SER, la jurista defendió que la tecnología aplicada al trabajo no es neutral y que, si se alimenta de datos sesgados, puede acabar reforzando desigualdades ya existentes. Luz explicó que, si una empresa decide medir la “responsabilidad” o el “compromiso” a partir de variables como las horas extraordinarias, las bajas o los permisos de maternidad, paternidad y conciliación de los últimos años, el algoritmo tenderá a premiar a quienes menos han interrumpido su carrera por cuidados.
La clave está en la transparencia
En la práctica, estos factores suelen favorecer por norma general a los hombres. “Con estos datos de entrenamiento del algoritmo ascenderán los varones”, sentencia la experta. ¿Por qué ocurre esto? “Porque son los que hacen más horas extraordinarias, los que hacen menos permisos de conciliación y los que piden menos horas para cuidar de la familia. Esto se llama, si lo hiciera una persona, discriminación indirecta”, añade.
El problema es que cuando ese sesgo lo introduce una máquina resulta mucho menos visible y, por tanto, más difícil de detectar y corregir. Lejos de eliminar la discriminación, el algoritmo puede amplificarla al aplicarla de forma sistemática y a gran escala, sin cuestionar los criterios en los que se basa. De ahí la importancia de revisar qué datos se utilizan y exigir transparencia en este tipo de decisiones.
A su vez, sostiene que esta lógica también puede darse en procesos de selección automatizados, por ejemplo cuando un sistema descarta currículums por palabras asociadas a embarazo o conciliación, un filtro que penaliza sobre todo a las mujeres. De este modo, se reproducen desigualdades que ya existen fuera del entorno digital sin que nadie llegue a cuestionarlas.
Luz, que ya ha investigado los riesgos de la inteligencia artificial para la igualdad de género en el trabajo, insiste en que la clave está en la transparencia: saber qué datos se usan, para qué se usan y quién responde cuando el sistema falla. En su intervención resume que el problema no es que una máquina decida más rápido, sino que una máquina puede aprender a discriminar con una eficacia mucho mayor que una persona.
