Cómo los algoritmos te discriminan por origen racial y por género

Cómo los algoritmos te discriminan por origen racial y por género

Si el sistema en el que vivimos no es neutral, la inteligencia artificial tampoco lo es. Diversos estudios y organizaciones lo demuestran.

6298a19d1e0000eeeb1b61a1Feodora Chiosea via Getty Images/iStockphoto

Imágenes en Twitter que ocultan la cara de Barack Obama, sistemas de predicción de delitos que sospechan más de la población negra, 26.000 familias –la mayoría de origen migrante– acusadas injustamente de fraude. Son tres ejemplos reales, con menor o mayor repercusión, de que los algoritmos y la inteligencia artificial (IA) tienen sesgos raciales, entre otros. 

El caso de Twitter fue aparentemente subsanado por la compañía –resulta que su algoritmo no estaba entrenado para reconocer caras negras–; el segundo caso fue destapado por ProPublica en Estados Unidos e investigado después por el MIT, que concluyó que “un algoritmo judicial justo es imposible”; el tercer caso llegó mucho más lejos: debido a este escándalo el Gobierno de Países Bajos dimitió en bloque en enero de 2021. 

Fue Eva González Pérez, una abogada de origen español, quien detectó en 2014 que algo raro pasaba en Holanda, al observar que varias familias dejaban de llevar a sus hijos a los centros infantiles que dirigía su marido. La abogada se puso a investigar; seis años después, un tribunal neerlandés declaraba ilegal el sistema SyRI, por el que el Gobierno de Países Bajos establecía qué ciudadanos eran más propensos a defraudar a Hacienda a la hora de concederles ayudas sociales, señalando por defecto a la población de origen migrante. El resultado ya se sabe: el Ejecutivo liderado por Mark Rutte cayó, sí, pero entretanto más de 20.000 familias fueron víctimas de una acusación injusta que les llevó a endeudarse por las elevadas multas, e incluso a perder su casa y su salud. 

Cuando se le pregunta a Youssef M. Ouled qué les llevó a él y a otros comunicadores a crear AlgoRace, contesta haciendo referencia a todo lo anterior. “Estamos inundados de algoritmos, están en todos los ámbitos de la vida. Y los hay positivos, pero la mayoría también reproducen sesgos racistas y de género”, apunta. Por algo el lema de la organización AlgoRace es “(Des)racializando la IA”. 

Un algoritmo no es racista ni deja de serlo, pero la forma de educarlo sí puede ser perfectamente racista
Enrique Dans

¿Quiere decir esto que la inteligencia artificial es racista? No en sí misma. Pero sí tiende a perpetuar sesgos racistas, por varios motivos. 

“Un algoritmo no es racista ni deja de serlo, sino que se limita a ser educado o entrenado con una serie de datos que provocan una reacción determinada”, explica Enrique Dans, investigador sobre Sistemas y Tecnologías de Información. “¿Cuál es el problema? Que las recolecciones de datos, las conexiones con las que los educamos, sí que pueden ser perfectamente racistas”, plantea Dans, autor de Viviendo en el futuro: Claves sobre cómo la tecnología está cambiando nuestro mundo

Quién los diseña y en qué contexto

Youssef M. Ouled coincide en que “los algoritmos, per se, no son racistas”, pero el periodista va más allá y habla del “contexto” en que se circunscriben. “Si miramos el campo en el que se desarrollan, analizan, diseñan y discuten los sistemas de inteligencia artificial, compuestos por algoritmos, nos encontramos con un mundo muy masculinizado y, por supuesto, blanco. En ese contexto, muchos de los entrenamientos que se dan a los algoritmos para que tengan una funcionalidad van con los sesgos implícitos que tiene la propia persona que los diseña, que los prueba, etcétera”, explica el periodista y coordinador del área antidiscriminación en Rights International Spain

Por eso hubo una época en la que Twitter no reconocía rostros de personas negras. “La tecnología del reconocimiento facial ha sido desarrollada y entrenada sobre rostros de personas blancas, sin tener en cuenta que hay personas que no son blancas, la mayoría, de hecho”, sostiene Ouled. El resultado puede ser ‘anecdótico’, como el experimento que desveló el racismo de Twitter, o puede llevar a que una persona inocente sea detenida al ser confundida con un delincuente con el que sólo compartía color de piel.

El algoritmo mismo es una opinión
Omar Flórez

Ouled señala que “los algoritmos no dejan de ser una receta para llevar a cabo una función”; quien seleccione e introduzca los pasos de esa receta estará orientando finalmente al algoritmo, de modo que habrá sesgos en mayor o menor medida. Como afirmaba el investigador peruano Omar Flórez en una entrevista con la BBC: “El algoritmo mismo es una opinión”.

  6298a360210000ec1e5097a8ArtemisDiana via Getty Images/iStockphoto

No obstante, garantizar la diversidad en las plantillas del sector tecnológico no sería suficiente para poner fin a los sesgos raciales o incluso de género, lo cual complica un poco más el panorama. Como explica Enrique Dans, son las propias series de datos que maneja el algoritmo las que inducen a un resultado sesgado. El investigador lo ilustra con un ejemplo de un banco estadounidense que trata de calcular los riesgos al conceder un crédito a alguien. 

“Históricamente, en Estados Unidos la población negra ha tenido más problemas para devolver sus préstamos, lo cual es comprensible teniendo en cuenta la discriminación histórica que han sufrido, que les ha llevado a tener peor poder adquisitivo, etcétera”, plantea Dans. Pues bien, aunque el banco en cuestión no guarde registro del origen étnico de sus clientes, “es posible que la estadística avanzada que usa el algoritmo llegue a la conclusión de que es mejor denegar los préstamos a personas con unos nombres determinados, o que viven en unos barrios determinados o con cualquier característica que pueda estar correlacionada con la variable racial”, apunta el investigador. “En este caso, se estaría permitiendo que una serie histórica de datos hiciese que el algoritmo heredara un comportamiento determinado que consolida estereotipos raciales”, concluye.

Si el sistema en el que vivimos no es neutral, la inteligencia artificial no es neutral
Youssef M. Ouled

De nuevo, Youssef M. Ouled apela a la relevancia del “contexto de racismo estructural”, por ejemplo cuando se utiliza un algoritmo para predecir el crimen, ya sea con el sistema Compas en EEUU o con el de RisCanvi en Cataluña. “Si las personas más identificadas a nivel policial son racializadas, las personas más denunciadas son racializadas, las personas que más contacto tienen con la institución policial son racializadas y metes todo esto a un sistema de datos para que extraiga conclusiones por sí mismo, al final va a acabar reproduciendo el mismo racismo institucional que ya existe”, sostiene.  

Según un estudio de la Universidad de Granada, la Policía en España para a las personas de origen africano 42 veces más que a las personas caucásicas; a los gitanos los paran 12 veces más, a los magrebíes 10 veces más y a las personas latinoamericanas, 8 veces más que a alguien con rasgos caucásicos. Es decir, si el sistema en el que vivimos no es neutral, “la inteligencia artificial no es neutral”, zanja Ouled. 

Los algoritmos también discriminan a las mujeres

Algo similar puede producirse –y se produce– con el género. El ejemplo más claro está en Amazon. En 2018, Reuters sacó a la luz que la compañía estadounidense había tenido que desechar un método de selección de currículos porque discriminaba claramente a las mujeres.

  6298a8612100007e905097afWanlee Prachyapanaprai via Getty Images/iStockphoto

“El mundo de la tecnología siempre ha sido predominantemente masculino”, constata Enrique Dans. De este modo, y sin necesidad de incluir ninguna variable relacionada con el género, se vio que el algoritmo de Amazon “tendía a no seleccionar candidatas para determinados puestos de trabajo”, ya que los registros históricos con los que se había entrenado al sistema eran básicamente candidaturas de hombres. 

“En España existe de facto una discriminación”

¿Y en España? Podría aplicarse todo (o casi todo) lo anterior, pero en cualquier caso sería muy difícil enumerar todos los sistemas de inteligencia artificial que manejan nuestras vidas y en qué discriminaciones incurren sus algoritmos. 

“En España hay muchos ámbitos en los que existe de facto una discriminación más o menos consolidada, pero no se puede saber exactamente qué programas operan”, reconoce Enrique Dans. “Cuando hablamos de redes neuronales, es muy, muy difícil que una persona siga mentalmente el procedimiento estadístico que está haciendo el algoritmo. Es un sistema que se ajusta muy bien, pero que es una caja negra: introduces los datos por un lado y, por el otro lado, te salen las predicciones, aunque en realidad no sabes cómo se consiguieron”, explica el investigador. 

No podemos decir con seguridad qué usos se está haciendo de la IA en España porque ni siquiera hay registros de algo tan básico
Youssef M. Ouled

Youssef M. Ouled coincide en buena parte con Dans. “Hoy en día se utilizan algoritmos para todo tipo de servicios en España, pero no podemos decir con seguridad qué usos se están haciendo porque no hay registros de algo tan básico como esto”, lamenta. “A nivel laboral, se utiliza para medir la efectividad, la productividad y la puntualidad de un trabajador, o la valoración social a un servicio que te da un trabajador –con las típicas encuestas que te ponen en un centro comercial o en un aeropuerto–, pero, también, se usa a la hora de conceder un crédito. El banco te somete a un sistema de puntos de IA, y decide si te da o no el préstamo sobre una serie de criterios”, ilustra el periodista. 

En el sector público, la inteligencia artificial se utiliza, por ejemplo, para determinar quién debe recibir o no determinada ayuda social. Ouled cuenta el caso de BOSCO, una aplicación diseñada por el Gobierno para la concesión del bono social eléctrico. Según la plataforma Civio, este sistema contiene fallos y deniega el bono social a personas que tendrían derecho a recibirlo. Sin embargo, la Justicia ha impedido la apertura del código fuente de la aplicación, de manera que no podrán conocerse los criterios con los que BOSCO se guía. 

“Digamos que es una ley convertida en un algoritmo”, describe Ouled. “Si conocemos el texto de la ley, ¿por qué no podemos conocer cómo está actuando a nivel de IA?”, plantea. “Hay una opacidad brutal y no hay voluntad política para revertirlo”, sostiene el periodista.  

Cómo evitar (en la medida de lo posible) los sesgos

Para Enrique Dans, la clave no estaría tanto en la transparencia como en la necesidad de que haya una revisión exhaustiva de los resultados a posteriori. Algo así como ‘vigilar’ de cerca al algoritmo para prevenir, reducir y corregir los sesgos. “Lo único que puedes hacer es un análisis muy cuidadoso y muy detallado de los resultados que te da para poder comprobar, a posteriori, si efectivamente hay sesgos y discriminación”, defiende el investigador. 

“Lo que hace el algoritmo es perpetuar, o incluso amplificar, el sesgo que había en los datos. Como el sesgo de los datos no es fácil de observar, tenemos que observarlo al otro lado, a la salida del algoritmo”, propone Dans. 

No se puede dejar todo a la estadística; tiene que haber supervisión
Enrique Dans

Dicho de otra manera: “Si se entrena a un algoritmo con unas series de datos sin establecer ningún tipo de prevención al respecto, lo que te da de manera natural es un algoritmo que estadísticamente tiende a sostener y a perpetuar la discriminación”, advierte Dans. Por ello “no se puede dejar todo a la estadística; tiene que haber supervisión”, afirma rotundo el investigador. 

Youssef M. Ouled recuerda que precisamente el Gobierno se comprometió a crear en 2022 una Agencia Española de Supervisión de Inteligencia Artificial para auditar algoritmos de redes sociales, administraciones públicas y empresas. El anuncio llegó en diciembre de 2021, pero “no hemos vuelto a saber nada”, resume Ouled. 

MOSTRAR BIOGRAFíA

Marina Velasco Serrano es traductora de formación y periodista de vocación. En 2014 empezó a trabajar en 'El HuffPost' como traductora de inglés y francés en Madrid, y actualmente combina esta faceta con la elaboración de artículos, entrevistas y reportajes de sociedad, salud, feminismo y cuestiones internacionales. En 2015 obtuvo una beca de traducción en el Parlamento Europeo y en 2019 recibió el II Premio de Periodismo Ciudades Iberoamericanas de Paz por su reportaje 'Cómo un Estado quiso acabar con una población esterilizando a sus mujeres', sobre las esterilizaciones forzadas en Perú. Puedes contactar con ella escribiendo a marina.velasco@huffpost.es