‘La máquina lo hizo fríamente’: Israel utilizó IA para identificar 37.000 objetivos de Hamás
Fuentes de inteligencia israelíes revelan el uso del sistema ‘Lavender’ en la guerra de Gaza y afirman que se les dio permiso para matar civiles en persecución de militantes de bajo rango.
The Guardian.- La campaña de bombardeos del ejército israelí en Gaza utilizó una base de datos impulsada por IA no revelada anteriormente que en un momento identificó 37.000 objetivos potenciales en función de sus aparentes vínculos con Hamas, según fuentes de inteligencia involucradas en la guerra.
Además de hablar sobre el uso del sistema de inteligencia artificial, llamado Lavender, las fuentes de inteligencia afirman que los oficiales militares israelíes permitieron que un gran número de civiles palestinos murieran, particularmente durante las primeras semanas y meses del conflicto .
Su testimonio inusualmente sincero ofrece una rara visión de las experiencias de primera mano de los funcionarios de inteligencia israelíes que han estado utilizando sistemas de aprendizaje automático para ayudar a identificar objetivos durante la guerra de seis meses.
El uso por parte de Israel de poderosos sistemas de inteligencia artificial en su guerra contra Hamás ha entrado en territorio inexplorado para la guerra avanzada, planteando una serie de cuestiones legales y morales y transformando la relación entre el personal militar y las máquinas.
“Esto no tiene paralelo, en mi memoria”, dijo un oficial de inteligencia que usó Lavender, y agregó que tenían más fe en un “mecanismo estadístico” que en un soldado afligido. “Todos los presentes, incluido yo, perdimos personas el 7 de octubre. La máquina lo hizo con frialdad. Y eso lo hizo más fácil”.
Otro usuario de Lavender cuestionó si el papel de los humanos en el proceso de selección era significativo. “En esta etapa, invertiría 20 segundos en cada objetivo y haría docenas de ellos cada día. No tenía ningún valor agregado como ser humano, aparte de ser un sello de aprobación. Ahorró mucho tiempo”.
El testimonio de los seis oficiales de inteligencia, todos ellos involucrados en el uso de sistemas de inteligencia artificial para identificar objetivos de Hamás y de la Jihad Islámica Palestina (JIP) en la guerra, fue entregado al periodista Yuval Abraham para un informe publicado por la publicación israelí-palestina + Revista 972 y el medio en hebreo Local Call .
“No conviene desperdiciar bombas caras en gente sin importancia; es muy caro para el país y hay escasez [de esas bombas]”, dijo un oficial de inteligencia. Otro dijo que la principal cuestión a la que se enfrentaban era si los “daños colaterales” a los civiles permitían un ataque.
“Porque normalmente llevábamos a cabo los ataques con bombas tontas, y eso significaba literalmente arrojar toda la casa sobre sus ocupantes. Pero incluso si se evita un ataque, no te importa: pasas inmediatamente al siguiente objetivo. Gracias al sistema, los objetivos nunca terminan. Tienes otros 36.000 esperando”.
Según los expertos en conflictos, si Israel ha estado utilizando bombas tontas para arrasar las casas de miles de palestinos que estaban vinculados, con la ayuda de AI, a grupos militantes en Gaza , eso podría ayudar a explicar el sorprendentemente alto número de muertos en la guerra.
El Ministerio de Salud del territorio controlado por Hamás dice que 33.000 palestinos han muerto en el conflicto en los últimos seis meses. Los datos de la ONU muestran que sólo en el primer mes de la guerra, 1.340 familias sufrieron pérdidas múltiples, y 312 familias perdieron a más de 10 miembros.
En respuesta a la publicación de los testimonios en +972 y Local Call, las FDI dijeron en un comunicado que sus operaciones se llevaron a cabo de acuerdo con las reglas de proporcionalidad del derecho internacional. Dijo que las bombas tontas son “armamento estándar” que utilizan los pilotos de las FDI de una manera que garantiza “un alto nivel de precisión”.
La declaración describió a Lavender como una base de datos utilizada “para hacer referencias cruzadas de fuentes de inteligencia, con el fin de producir capas actualizadas de información sobre los operativos militares de las organizaciones terroristas. Esta no es una lista de agentes militares confirmados elegibles para atacar.
“Las FDI no utilizan un sistema de inteligencia artificial que identifique a agentes terroristas o intente predecir si una persona es un terrorista”, añadió. “Los sistemas de información son meras herramientas para los analistas en el proceso de identificación de objetivos”.
Lavender creó una base de datos de decenas de miles de personas
En operaciones militares anteriores realizadas por las FDI, producir objetivos humanos era a menudo un proceso que requería más mano de obra. Múltiples fuentes que describieron a The Guardian el desarrollo de objetivos en guerras anteriores dijeron que la decisión de “incriminar” a un individuo, o identificarlo como un objetivo legítimo, sería discutida y luego aprobada por un asesor legal.
Según las fuentes, en las semanas y meses posteriores al 7 de octubre, este modelo para aprobar ataques contra objetivos humanos se aceleró drásticamente. A medida que se intensificaba el bombardeo de Gaza por parte de las FDI, dijeron, los comandantes exigieron un flujo continuo de objetivos.
“Nos presionaban constantemente: ‘Tráigannos más objetivos’. Realmente nos gritaron”, dijo un oficial de inteligencia. “Nos dijeron: ahora tenemos que arruinar a Hamás, cueste lo que cueste. Todo lo que puedas, lo bombardeas”.
Para satisfacer esta demanda, las FDI llegaron a depender en gran medida de Lavender para generar una base de datos de personas que se consideraba que tenían las características de un militante de la Yihad Islámica en Palestina o de Hamás.
Los detalles sobre los tipos específicos de datos utilizados para entrenar el algoritmo de Lavender, o cómo el programa llegó a sus conclusiones, no se incluyen en los relatos publicados por +972 o Local Call. Sin embargo, las fuentes dijeron que durante las primeras semanas de la guerra, la Unidad 8200 refinó el algoritmo de Lavender y modificó sus parámetros de búsqueda.
Después de tomar muestras aleatorias y verificar sus predicciones, la unidad concluyó que Lavender había logrado una tasa de precisión del 90%, dijeron las fuentes, lo que llevó a las FDI a aprobar su uso generalizado como herramienta de recomendación de objetivos.
Lavender creó una base de datos de decenas de miles de personas que fueron marcadas como miembros predominantemente de bajo rango del ala militar de Hamas, agregaron. Esto se utilizó junto con otro sistema de apoyo a la toma de decisiones basado en inteligencia artificial, llamado Evangelio , que recomendaba edificios y estructuras como objetivos en lugar de individuo
Los relatos incluyen testimonios de primera mano de cómo los oficiales de inteligencia trabajaron con Lavender y cómo se podía ajustar el alcance de su redada. “En su punto máximo, el sistema logró generar 37.000 personas como posibles objetivos humanos”, dijo una de las fuentes. “Pero las cifras cambiaban todo el tiempo, porque depende de dónde se establezca el listón de lo que es un agente de Hamás”.
Agregaron: “Hubo momentos en que un operativo de Hamás se definió de manera más amplia, y luego la máquina comenzó a traernos todo tipo de personal de defensa civil, oficiales de policía, sobre quienes sería una vergüenza desperdiciar bombas. Ayudan al gobierno de Hamás, pero en realidad no ponen en peligro a los soldados”.
Antes de la guerra, Estados Unidos e Israel estimaban que el ala militar de Hamás contaba con entre 25.000 y 30.000 miembros.
En las semanas posteriores al ataque liderado por Hamás el 7 de octubre contra el sur de Israel, en el que militantes palestinos mataron a casi 1.200 israelíes y secuestraron a unas 240 personas, las fuentes dijeron que había una decisión de tratar a los hombres palestinos vinculados al ala militar de Hamás como objetivos potenciales, independientemente de de su rango o importancia.
Los procesos de selección de objetivos de las FDI en la fase más intensa del bombardeo también se relajaron, dijeron. “Había una política completamente permisiva con respecto a las víctimas de las operaciones [de bombardeo]”, dijo una fuente. “Una política tan permisiva que en mi opinión tenía un elemento de venganza”.
Otra fuente, que justificó el uso de Lavender para ayudar a identificar objetivos de bajo rango, dijo que “cuando se trata de un militante joven, no conviene invertir mano de obra ni tiempo en él”. Dijeron que en tiempos de guerra no había tiempo suficiente para “incriminar cuidadosamente a cada objetivo”.
“Por lo tanto, uno está dispuesto a aprovechar el margen de error que supone utilizar inteligencia artificial, arriesgarse a sufrir daños colaterales y a la muerte de civiles, y arriesgarse a atacar por error, y vivir con ello”, añadieron.
“Es mucho más fácil bombardear la casa de una familia”
Los testimonios publicados por +972 y Local Call pueden explicar cómo un ejército occidental con capacidades tan avanzadas, con armas que pueden realizar ataques altamente quirúrgicos, ha llevado a cabo una guerra con un costo humano tan enorme.
Cuando se trataba de atacar a sospechosos de bajo rango de Hamás y la Yihad Islámica en Palestina, dijeron, la preferencia era atacar cuando se creía que estaban en casa. “No estábamos interesados en matar a agentes [de Hamás] sólo cuando estaban en un edificio militar o participando en una actividad militar”, dijo uno. “Es mucho más fácil bombardear la casa de una familia. El sistema está diseñado para buscarlos en estas situaciones”.
Tal estrategia corría el riesgo de un mayor número de víctimas civiles, y las fuentes dijeron que las FDI impusieron límites preautorizados al número de civiles que consideraban aceptable matar en un ataque dirigido a un solo militante de Hamas. Se decía que la proporción había cambiado con el tiempo y variaba según la antigüedad del objetivo.
Según +972 y Local Call, las FDI consideraron permisible matar a más de 100 civiles en ataques contra funcionarios de alto rango de Hamás. “Teníamos un cálculo de cuántos [civiles podían ser asesinados] para el comandante de brigada, cuántos [civiles] para un comandante de batallón, etc.”, dijo una fuente.
“Había regulaciones, pero eran muy indulgentes”, añadió otro. “Hemos matado a personas con daños colaterales de dos dígitos, si no de tres dígitos. Estas son cosas que no habían sucedido antes”. Parece haber habido fluctuaciones significativas en la cifra que los comandantes militares tolerarían en diferentes etapas de la guerra.
Una fuente dijo que el límite de bajas civiles permitidas “subía y bajaba” con el tiempo, y en un momento llegó a ser tan bajo como cinco. Durante la primera semana del conflicto, dijo la fuente, se dio permiso para matar a 15 no combatientes para eliminar a militantes jóvenes en Gaza. Sin embargo, dijeron que las estimaciones de víctimas civiles eran imprecisas, ya que no era posible saber definitivamente cuántas personas había en un edificio.
Otro oficial de inteligencia dijo que, más recientemente, en el conflicto, la tasa de daños colaterales permitidos volvió a bajar. Pero en una etapa anterior de la guerra se les autorizó a matar hasta “20 civiles no involucrados” por un solo operativo, independientemente de su rango, importancia militar o edad.
“No se trata sólo de que se pueda matar a cualquier persona que sea soldado de Hamás, lo cual está claramente permitido y es legítimo en términos del derecho internacional”, dijeron. “Pero te dicen directamente: ‘Puedes matarlos junto con muchos civiles’. … En la práctica, el criterio de proporcionalidad no existía”.
La declaración de las FDI dijo que sus procedimientos “requieren realizar una evaluación individual de la ventaja militar anticipada y los daños colaterales esperados… Las FDI no llevan a cabo ataques cuando los daños colaterales esperados del ataque son excesivos en relación con la ventaja militar”. Añadió: “Las FDI rechazan rotundamente la afirmación relativa a cualquier política para matar a decenas de miles de personas en sus hogares”.
Los expertos en derecho internacional humanitario que hablaron con The Guardian expresaron su alarma ante los informes de que las FDI aceptaron y autorizaron previamente proporciones de daños colaterales de hasta 20 civiles, particularmente para militantes de menor rango. Dijeron que los militares deben evaluar la proporcionalidad de cada ataque individual.
Un experto en derecho internacional del Departamento de Estado de Estados Unidos dijo que “nunca habían oído ni remotamente que una proporción de uno a 15 se considerara aceptable, especialmente para los combatientes de nivel inferior. Hay mucho margen de maniobra, pero eso me parece extremo”.
Sarah Harrison, ex abogada del Departamento de Defensa de Estados Unidos y ahora analista de Crisis Group, dijo: “Si bien puede haber ciertas ocasiones en las que 15 muertes civiles colaterales podrían ser proporcionales, hay otras ocasiones en las que definitivamente no lo serían. No se puede simplemente establecer un número tolerable para una categoría de objetivos y decir que será legalmente proporcionado en cada caso”.
Cualquiera que sea la justificación legal o moral de la estrategia de bombardeo de Israel, algunos de sus oficiales de inteligencia parecen ahora cuestionar el enfoque establecido por sus comandantes. “Nadie pensó en qué hacer después, cuando termine la guerra, o cómo será posible vivir en Gaza”, dijo uno.
Otro dijo que después de los ataques del 7 de octubre por parte de Hamas, la atmósfera en las FDI era “dolorosa y vengativa”. “Hubo una disonancia: por un lado, la gente aquí estaba frustrada porque no estábamos atacando lo suficiente. Por otro lado, al final del día se ve que otros mil habitantes de Gaza han muerto, la mayoría de ellos civiles”.