Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
La portada de mañana
Acceder
Sánchez impulsa una regeneración que incluye una reforma del Poder Judicial
La fumata blanca de Sánchez: cinco días de aislamiento, pánico y disculpas al PSOE
Opinión - ¿Y ahora qué? Por Marco Schwartz

The Guardian en español

Israel emplea la IA en la masacre en Gaza y el combate con Hamás: “Hemos matado a gente con un daño colateral de dos o tres dígitos”

Un avión de combate F15 de las Fuerzas de Defensa de Israel (FDI).

Bethan McKernan / Harry Davies

Jerusalén —

59

Durante los seis meses de ofensiva contra Gaza, el Ejército de Israel ha estado usando una base de datos desconocida hasta el momento, que emplea la Inteligencia Artificial (IA) y que sugirió el nombre de 37.000 personas como posibles objetivos por sus vínculos aparentes con el grupo palestino Hamás, según fuentes de la inteligencia israelí vinculadas a la actual guerra sobre Gaza.

Esas fuentes de inteligencia, además de hablar sobre el sistema 'Lavender', sostienen que oficiales del Ejército israelí han permitido la muerte de un número importante de civiles palestinos, especialmente durante los primeros meses del conflicto.

El periodista Yuval Abraham recogió el testimonio de seis oficiales de inteligencia, todos ellos implicados en el uso de sistemas de IA para identificar objetivos de Hamás y de la Yihad Islámica Palestina (YIP) en Gaza, para un reportaje en inglés en el medio independiente +972 Magazine y en hebreo en Local Call. Los testimonios fueron compartidos con el diario The Guardian en exclusiva antes de su publicación.

Los testimonios son poco comunes por su sinceridad y ofrecen una mirada inusual sobre las experiencias vividas de primera mano por los funcionarios de inteligencia que vienen usando el sistema de aprendizaje automático para identificar objetivos en estos seis meses de guerra.

“Como ser humano no aportaba ningún valor añadido”

Israel, con el empleo de potentes sistemas de Inteligencia Artificial en su enfrentamiento con Hamás, ha entrado en un terreno desconocido para la guerra moderna, generando nuevas cuestiones jurídicas y morales, y transformando al mismo tiempo la relación entre las máquinas y el personal militar.

“Esto no tiene parangón en mi memoria”, afirma un agente de inteligencia que usó Lavender. En su opinión, un “mecanismo estadístico” es más fiable que los soldados en duelo. “El 7 de octubre todo el mundo perdió a seres queridos, yo también; la máquina lo hacía fríamente y eso lo hacía más fácil”, explica.

Otro agente que usó Lavender cuestiona que los seres humanos fueran mejores en el proceso de selección de objetivos: “Yo le dedicaba veinte segundos a cada objetivo y hacía docenas de evaluaciones por día; como ser humano no aportaba ningún valor añadido, más allá del sello de aprobación; [Lavender] ha ahorrado mucho tiempo”.

Los agentes confirman el papel central que ha jugado Lavender durante la guerra analizando grandes cantidades de datos para identificar rápidamente posibles combatientes júnior de Hamás a los que atacar. Al inicio de la guerra, y según cuatro de las personas entrevistadas, el sistema de IA vinculó con Hamás o con la YIP el nombre de hasta 37.000 varones gazatíes.

Lavender fue desarrollado por la Unidad 8200, cuerpo de espionaje de elite de las Fuerzas de Defensa de Israel (FDI), comparable a la Agencia de Seguridad Nacional de Estados Unidos.

Según varias de las fuentes, para autorizar el ataque contra varias categorías de objetivos, las FDI autorizaban de antemano un número estimado de muertes civiles considerado permisible y proporcionado. Dos de las personas que dieron su testimonio señalan que, en las primeras semanas de la guerra tenían permitido matar a 15 o a 20 civiles durante ataques aéreos contra militantes de bajo rango. Por lo general, los ataques contra ese tipo de objetivos se ejecutaban con municiones no guiadas, denominadas bombas tontas, que destruían casas enteras y mataban a todos los que se encontraban en su interior.

Normalmente ejecutábamos los ataques con bombas tontas y eso significaba dejar que la casa entera se desplomara literalmente sobre sus ocupantes"

“No quieres gastar bombas caras en gente sin importancia; es muy caro para el país y hay escasez [de esas bombas]”, afirma uno de los agentes de la inteligencia israelí. Según otro de los agentes entrevistados, la cuestión clave era determinar los “daños colaterales” a civiles permitidos en un ataque. “Normalmente ejecutábamos los ataques con bombas tontas y eso significaba dejar que la casa entera se desplomara literalmente sobre sus ocupantes”, explica. “Pero incluso si un ataque es evitado, no te importa. Pasas inmediatamente al objetivo siguiente: con el sistema [de IA], los objetivos no se terminan nunca. Tienes a otros 36.000 esperando”.

Según expertos en conflictos, si Israel ha usado bombas tontas y destruido las casas de miles de palestinos de Gaza después de que la IA los vinculara con grupos armados, eso podría ayudar a explicar el número escandalosamente alto de muertos civiles en la guerra actual. Según el Ministerio de Sanidad de Gaza, más de 33.000 palestinos han muerto desde octubre. Según datos de la ONU, 1.340 familias sufrieron múltiples pérdidas solo en el primer mes de guerra; de ellas, 312 perdieron a más de diez de sus miembros.

En respuesta a la publicación del reportaje en +972 Magazine y en Local Call, las FDI difundieron un comunicado en el que defendían que habían respetado las normas de proporcionalidad del derecho internacional y que las bombas tontas eran un “armamento estándar” usado por los pilotos de las FDI de manera que tengan “un nivel alto de precisión”. El comunicado destacaba que Lavender era una base de datos “para cruzar fuentes de inteligencia, con el fin de producir varias capas de información actualizada relacionada con miembros militares de organizaciones terroristas”.

“No se trata de una lista de miembros militares confirmados como aprobados para ser atacados”, agregaba. “Las FDI no utilizan un sistema de IA que identifique a terroristas o trate de predecir si una persona es terrorista (...) Los sistemas de información son sólo herramientas que ayudan a los analistas en su proceso de identificación de objetivos”.

Un algoritmo para identificar a “objetivos” humanos

En anteriores operaciones militares de las FDI, identificar como objetivos a personas solía ser un proceso más laborioso. De acuerdo con el testimonio de varias personas que han descrito a The Guardian el proceso en otras ofensivas, antes de “incriminar” a un individuo o de identificarlo como objetivo legítimo, había un debate y se contaba con la firma posterior de un asesor jurídico.

Según esas personas, el proceso para aprobar ataques contra seres humanos se aceleró drásticamente en las semanas y meses posteriores a los atentados de Hamás del 7 de octubre. A medida que las FDI intensificaban el bombardeo sobre Gaza, los comandantes exigían que no dejara de haber nuevos objetivos. “Nos presionaban todo el rato: 'traednos más objetivos', nos gritaban”, dice un agente. Según su testimonio, los comandantes insistían en que ese era el momento para “joder a Hamás cueste lo que cueste”. “'Todo lo que puedas, bombardéalo', nos decían”.

Para satisfacer esa exigencia, las FDI dependían en gran medida de Lavender para generar una base de datos con el nombre de personas que podrían ser clasificadas como milicianos de Hamás o de la YIP.

En la información publicada por +972 Magazine y por Local Call no hay detalles sobre el tipo concreto de datos empleados para entrenar el algoritmo de Lavender ni sobre la forma en que el programa llegaba a sus conclusiones. Sin embargo, de acuerdo con las fuentes, la Unidad 8200 refinó el algoritmo de Lavender y ajustó sus parámetros durante las primeras semanas de la guerra en Gaza. La Unidad cotejó sus predicciones con una muestra aleatoria y concluyó que Lavender había alcanzado una precisión del 90%, un porcentaje que las FDI consideraron suficiente para aprobar el uso generalizado de esta tecnología como herramienta de recomendación de objetivos, según las fuentes.

Lavender creó una base de datos con el nombre de decenas de miles de personas marcadas como miembros de bajo rango del ala militar de Hamás, aseguran las fuentes. Esta base de datos se utilizaba junto a Evangelio, otro sistema basado en la IA para apoyar la toma de decisiones con la selección edificios y estructuras como objetivos.

Los testimonios de primera mano de las fuentes describen el trabajo de los agentes de inteligencia con Lavender y sobre la manera en que era posible ajustar el tamaño de la red de arrastre. “En su punto álgido, el sistema llegó a generar el nombre de 37.000 personas como posibles objetivos humanos”, asegura una de las fuentes. “Pero las cifras cambiaban todo el tiempo porque dependía de los estándares para decidir quién era un miembro de Hamás”.

“En algunos momentos, se definió de manera más amplia lo que era un miembro de Hamás y entonces la máquina empezó a sugerir todo tipo de empleados de los servicios de emergencia, de agentes de Policía, contra los que sería una vergüenza desperdiciar bombas”, dice una de las fuentes. “Ayudan al Gobierno de Hamás, pero la verdad es que no ponen en peligro a los soldados” de Israel.

Antes de la guerra, Israel y Estados Unidos calculaban que el ala militar de Hamás estaba compuesta por entre 25.000 y 30.000 miembros.

Una política “tolerante” con las bajas civiles

Las fuentes relatan que, en las semanas posteriores al asalto de Hamás contra Israel del 7 de octubre –en el que los milicianos islamistas mataron a unos 1.200 israelíes y secuestraron a unos 240–, se tomó la decisión de considerar como objetivos a todos los hombres palestinos vinculados al ala militar de Hamás, independientemente de su rango o importancia.

En la fase más intensa de bombardeos también se relajaron las normas del proceso de selección de objetivos de las FDI. “Había una política completamente tolerante con respecto a las bajas provocadas por las operaciones” militares. “Una política tan tolerante que, en mi opinión, tenía algo de venganza”, admite una fuente.

Otra fuente justifica el uso de Lavender para ayudar a identificar objetivos de bajo rango. En su opinión, “cuando se trata de un militante júnior, no es algo en lo que quieres invertir tiempo ni personal”. Durante la guerra, no hay tiempo para hacer una “incriminación meticulosa de cada objetivo”, añade. “Estás dispuesto a asumir el margen de error de la inteligencia artificial, a arriesgarte a sufrir daños colaterales y a que mueran civiles; y arriesgarte a atacar por error, y vivir con eso”.

Los testimonios ofrecen una explicación del elevado coste humano que está teniendo una guerra ejecutada por un ejército occidental con capacidades tan desarrolladas y con armas preparadas para lanzar ataques de gran precisión.

Es mucho más fácil bombardear una casa familiar. El sistema está construido para buscarlos en esas situaciones"

Según las fuentes, cuando se trataba de sospechosos de bajo rango de Hamás y de la YIP, la preferencia era atacar cuando se estimaba que estaban en casa. “No íbamos a matar a los operativos sólo cuando estaban en un edificio militar o participando en una actividad militar”, afirma una de las personas entrevistadas. “Es mucho más fácil bombardear una casa familiar. El sistema está construido para buscarlos en esas situaciones”.

Las FDI establecieron números de civiles cuya muerte consideraban aceptable durante un ataque dirigido contra un solo militante de Hamás, de acuerdo con las fuentes. El ratio variaba en función del rango del objetivo y habría ido cambiando con el tiempo. +972 Magazine y Local Call revelan que, en ataques contra un alto cargo de Hamás, las FDI consideraron permisible matar a más de 100 civiles.  

“Teníamos un cálculo de cuántos [civiles podían ser asesinados] por un comandante de brigada, cuántos por un comandante de batallón, y así sucesivamente”, detalla una fuente. Otra dice que “había normas, pero eran muy permisivas”: “Hemos matado a gente con un daño colateral de dos dígitos, cuando no de tres; son cosas que no habían ocurrido antes” en otras ofensivas.

La proporción que los mandos militares consideraban aceptable ha ido variando en las distintas fases de la guerra. Según una fuente, el límite de víctimas civiles permitidas “subía y bajaba”, y en un momento llegó a ser de cinco. Durante la primera semana del conflicto, estaba autorizado matar a 15 no combatientes en Gaza para eliminar a un militante júnior. Pero las estimaciones de víctimas civiles eran imprecisas, agrega la fuente, por la imposibilidad de saber con certeza cuántas personas había en un edificio.

Principio de proporcionalidad

Otro agente de Inteligencia dijo que la tasa de daños colaterales permitidos se había reducido recientemente, pero que en un momento les dieron autorización para matar hasta a “20 civiles no implicados” a cambio de terminar con un solo operativo, independientemente de su edad, rango o importancia militar. “No es sólo que puedas matar a cualquier persona que sea combatiente de Hamás, algo claramente permitido y legítimo en términos de derecho internacional (...) Sino que directamente te dicen: 'Tienes permitido matarlos junto con muchos civiles'. El principio de proporcionalidad, en la práctica, no existía”.

En su comunicado, las FDI sostuvieron que sus procedimientos requerían “una evaluación individual de la ventaja militar prevista y de los daños colaterales esperados”. “Las FDI no llevan a cabo ataques cuando los daños colaterales esperados son excesivos en relación con las ganancias militares”, afirmaba el texto. “Las FDI rechazan rotundamente afirmaciones relativas a una política de matar a decenas de miles de personas en sus hogares”.

Expertos en derecho internacional humanitario consultados por The Guardian han mostrado su preocupación ante la posibilidad de que las FDI hayan aceptado y permitido de manera anticipada la muerte de hasta 20 civiles por un operativo de Hamás, especialmente en el caso de los milicianos de bajo rango. Según los expertos, el Ejército está obligado a evaluar la proporcionalidad de cada ataque individualmente.

“Nunca escuché que se considerara aceptable, ni remotamente, una proporción de 1 a 15, especialmente en el caso de un miliciano de bajo rango; hay mucho margen, pero eso me parece extremo”, ha señalado un experto en derecho internacional del Departamento de Estado de EEUU.

Aunque puede haber ocasiones en las que 15 muertes civiles colaterales puedan ser consideradas proporcionadas, hay otras en las que definitivamente no lo serían"

“Aunque puede haber ocasiones en las que 15 muertes civiles colaterales puedan ser consideradas proporcionadas, hay otras en las que definitivamente no lo serían. No se puede predefinir un número tolerable para una categoría de objetivos y decir que será legalmente proporcionado en todos los casos”, ha declarado Sarah Harrison, exabogada del Departamento de Defensa estadounidense y analista del centro de estudios Crisis Group.

Más allá de posibles justificaciones legales o morales del bombardeo israelí, algunos de sus agentes de inteligencia parecen estar cuestionando la estrategia de los comandantes. “Nadie pensó en qué hacer después, cuando acabe la guerra, ni en cómo será posible vivir en Gaza”, dice uno de ellos. Según otro, tras los ataques del 7 de octubre de Hamás el ambiente dentro de las FDI era “de dolor y venganza”. “Había una disonancia: por un lado, la gente aquí estaba contrariada porque no golpeábamos lo suficiente; pero, al final del día, veías que otros mil gazatíes habían muerto, civiles en su mayor parte”.

Etiquetas
stats