Júlia Nueno, investigadora: "El sistema de IA militar Lavender puntúa a la población entre 1 y 100: si no hay valor 0, no hay posibilidad de inocencia"
Esta inteligencia artificial que asigna puntuaciones a personas reabre el debate legal sobre los objetivos de la guerra.

La inteligencia artificial (IA) ya no es solo una herramienta de apoyo a los conflictos. También se ha convertido en una pieza central del debate jurídico y moral sobre cómo se seleccionan objetivos militares. Ahí entra Lavender, el sistema del que habla la investigadora Júlia Nueno, vinculada a Forensic Architecture, y que, según una investigación periodística de +972 Magazine y Local Call, habría asignado a habitantes de Gaza una puntuación de 0 a 100 sobre la probabilidad de pertenecer a grupos armados.
Según Nueno, la inocencia desaparece como categoría operativa dentro del sistema. Esta ingeniera computacional barcelonesa y doctoranda en Goldsmiths, University of London, explicó en una entrevista en El País que su trabajo busca definir herramientas legales y metodológicas para poder "sentar a la IA militar en el banquillo".
En esa misma conversación, vincula su labor en Forensic Architecture con la documentación presentada por Sudáfrica ante el Tribunal Internacional de Justicia en su caso contra Israel, un procedimiento que sigue abierto y en el que Pretoria sostiene que las actuaciones israelíes en Gaza violan la Convención sobre Genocidio; Israel rechaza esas acusaciones.
Qué es Lavender y por qué ha generado tanta alarma
La investigación que destapó Lavender se publicó en abril de 2024. Según +972 Magazine, el sistema analizaba grandes volúmenes de datos obtenidos mediante vigilancia masiva y asignaba una puntuación a gran parte de la población de Gaza para estimar la probabilidad de pertenencia a las alas militares de Hamás o de la Yihad Islámica Palestina. Ese mismo reportaje sostuvo que el programa llegó a marcar a unas 37.000 personas como sospechosas en fases tempranas de la guerra.
El punto más delicado no era solo la existencia del sistema, sino cómo se usaba. La investigación aseguró que, en la práctica, el volumen de objetivos y la automatización redujeron el control humano real, y que en algunos casos se autorizaron niveles de víctimas civiles muy altos para atacar a militantes de rango bajo.
Medios como The Guardian y El País English recogieron después esas mismas alegaciones y subrayaron el riesgo de que una herramienta probabilística terminara funcionando como legitimación técnica de decisiones letales.
Israel, por su parte, ha negado que exista una "lista de ejecución" generada por IA en esos términos y mantiene que sus operaciones se ajustan al derecho internacional y que las decisiones de ataque requieren revisión humana. Esa negativa figura en la respuesta recogida por varios medios tras la publicación de la investigación.
El problema de fondo: pasar de sospechoso a objetivo
La frase de Nueno resume un cambio de lógica que preocupa a juristas y especialistas en derechos humanos. No se trata solo de identificar a una persona concreta por una acción concreta, sino de trabajar con modelos de probabilidad: patrones de uso, contactos, movimientos, vínculos telefónicos o actividad digital.
El propio reportaje de +972 detalló que entre las variables podían entrar elementos como cambiar de móvil, cambiar de domicilio o estar en grupos de mensajería con personas ya señaladas.
Ahí está el salto peligroso: la sospecha estadística pasa a convertirse en base operativa. Y eso conecta con otra idea que Nueno desarrolla en la entrevista: la IA no solo acelera la guerra, sino que predice culpables antes de que exista un delito probado. En términos jurídicos, el debate afecta a principios básicos como la distinción entre combatientes y civiles, la proporcionalidad y la presunción de inocencia, aunque esta última no se aplique de forma idéntica al derecho internacional humanitario que al derecho penal interno.
Forensic Architecture, las pruebas y el frente judicial
Forensic Architecture lleva años trabajando con imágenes, vídeos, mapas, satélites y reconstrucciones espaciales para documentar violaciones de derechos humanos. En el caso de Gaza, una parte de su trabajo ha sido incorporada al debate jurídico internacional y a informes sobre ataques a hospitales, ayuda humanitaria e infraestructuras civiles. La propia organización ha publicado análisis sobre el material visual usado por Israel ante la corte y otros informes sobre la destrucción en Gaza.
Eso no significa que el caso esté resuelto. El TIJ no ha dictado una sentencia final sobre el fondo, pero sí ha tramitado varias solicitudes y medidas provisionales dentro del procedimiento iniciado por Sudáfrica a finales de 2023. Es decir, el frente judicial sigue abierto y la batalla por la prueba también.
