'El Evangelio': así usa Israel la inteligencia artificial para seleccionar objetivos en Gaza

'El Evangelio': así usa Israel la inteligencia artificial para seleccionar objetivos en Gaza

Una doble investigación periodística de 'The Guardian' y '+972' desvela que los objetivos en la franja son generados por un programa de IA que dirige una "fábrica de asesinatos en masa" en la que "el énfasis está en la cantidad y no en la calidad".

Soldados y tanques israelíes, en la frontera con Gaza, el pasado 28 de noviembre.Ohad Zwigenberg / AP

Las Fuerzas de Defensa de Israel (FDI) está utilizando un sistema de inteligencia artificial para fijar sus objetivos en la franja de Gaza, en su guerra contra Hamás, bautizado con el nombre de El Evangelio y que acaba de ser puesta sobre la mesa por una investigación periodística internacional que aporta detalles, incluso, sobre el uso de la fuerza sobre civiles inocentes, no sólo sobre la milicia palestina.

Según el periódico británico The Guardian y las publicación israelíes Local Call y +972, el sistema contiene datos sobre entre 30 y 40 personas que las FDI clasifican como militantes y proporciona las coordenadas de sus edificios residenciales para un posible ataque.

El excomandante del ejército israelí, Aviv Kochavi, señaló anteriormente que antes de la introducción de la IA, su ejército detectaba alrededor de 50 objetivos en la Franja de Gaza por año, mientras que con la ayuda del sistema, el número de objetivos aumentaba a cien por día. 

Los altos líderes de Hamas huyeron a túneles inmediatamente después de que comenzaron los ataques, dijeron fuentes a The Guardian, y el sistema de inteligencia artificial permitió a las tropas de invasión de Israel detectar militantes menores que vivían en casas en toda la Franja de Gaza. Esto llevó a que muchas casas fueran objeto de bombardeos, lo que provocó la muerte de todos los que vivían en ellas.

Los operadores del sistema Evangelion están haciendo estimaciones preliminares del número de civiles que podrían morir como resultado del ataque. La decisión final de atacar la toma el comandante de la unidad de turno. Un operador que dejó el ejército israelí en 2021 dijo a The Guardian que algunos comandantes eran más propensos a utilizar la violencia que otros.

Y es que Tel Aviv no sale bien parado de estas publicaciones porque hablan de un rodillo que es "una fábrica de asesinatos en masa". La precisión de los ataques recomendados por el "banco de objetivos de IA" ha sido enfatizada en múltiples informes en los medios israelíes. El diario Yedioth Ahronoth informó que la unidad "se asegura, en la medida de lo posible, de que no se producirán daños a los civiles no implicados". Una antigua fuente militar israelí de alto rango dijo a The Guardian que los agentes utilizan una medición "muy precisa" de la tasa de civiles que evacuan un edificio poco antes de un ataque. “Utilizamos un algoritmo para evaluar cuántos civiles quedan. Nos da un verde, amarillo, rojo, como una señal de tráfico”.

Sin embargo, los expertos en IA y conflictos armados que hablaron con The Guardian dijeron que se mostraban escépticos ante las afirmaciones de que los sistemas basados en IA reducían el daño a civiles al fomentar objetivos más precisos. Un abogado que asesora a los gobiernos sobre la IA y el cumplimiento del derecho humanitario dijo que había “poca evidencia empírica” que respaldara tales afirmaciones. Otros señalaron el impacto visible del bombardeo. "Estamos viendo el arrasamiento generalizado de una zona urbana con armas explosivas pesadas, por lo que afirmar que se ejerce una fuerza precisa y limitada no está respaldado por los hechos", afirma uno de ellos. 

"Nada sucede por accidente (...). Cuando una niña de 3 años es asesinada en una casa en Gaza, es porque alguien en el ejército decidió que no era gran cosa que la mataran"

Toda la información, que surge de "miembros actuales y anteriores de la comunidad de inteligencia de Israel, incluido personal de inteligencia militar y de la fuerza aérea que participaron en operaciones israelíes en la asediada Franja, además de testimonios, datos y datos palestinos", apunta a que el plan es "crear un shock" que, entre otras cosas, reverberará poderosamente y "llevará a los civiles a presionar a Hamás". 

El ejército israelí tiene archivos sobre "la gran mayoría de objetivos potenciales en Gaza -incluidas viviendas-", que "estipulan el número de civiles que probablemente serán asesinados" en un ataque contra un objetivo particular. "Esta cifra se calcula y es conocida de antemano por las unidades de inteligencia del ejército, que también saben, poco antes de llevar a cabo un ataque, aproximadamente cuántos civiles seguramente morirán".

Hay una declaración especialmente contundente: "Nada sucede por accidente (...). Cuando una niña de 3 años es asesinada en una casa en Gaza, es porque alguien en el ejército decidió que no era gran cosa que la mataran, que era un precio que valía la pena pagar para atacar (a otra persona u objetivo). No somos Hamás. Estos no son cohetes aleatorios. Todo es intencional. Sabemos exactamente cuántos daños colaterales hay en cada hogar". "El énfasis está en la cantidad y no en la calidad", insisten. 

Según las fuentes, el uso cada vez mayor de sistemas basados en inteligencia artificial como Habsora (Evangelio). permite al ejército llevar a cabo ataques a escala masiva contra hogares residenciales donde vive un solo miembro de Hamás, incluso aquellos que son agentes jóvenes de Hamás. Sin embargo, los testimonios de los palestinos en Gaza sugieren que desde el 7 de octubre, el ejército también ha atacado muchas residencias privadas donde no residía ningún miembro conocido o aparente de Hamas o de cualquier otro grupo militante. Tales ataques, confirmaron fuentes al +972 y Local Call, pueden matar a familias enteras en el proceso.