La guerra de Israel contra Gaza ha golpeado al enclave palestino con una ferocidad nueva y mortal. Ese ataque, según un informe reciente, está impulsado por un sistema de inteligencia artificial que, según los expertos, es indiscriminado e inherentemente defectuoso.
en un investigación conjuntalos medios israelíes +972 Magazine y Local Call realizaron entrevistas con varios funcionarios de inteligencia israelíes actuales y anteriores, revelando que el ejército tenía expectativas más bajas que antes sobre la limitación de objetivos civiles.
Las reglas más flexibles se combinaron con el uso de «Habsora» («El Evangelio» en hebreo), un sistema de inteligencia artificial que puede generar objetivos a un ritmo más rápido que antes, facilitando lo que un ex oficial de inteligencia llamó una «fábrica de asesinatos en masa».
Los funcionarios admitieron ante los medios que las casas de miembros de menor rango de Hamás y otras facciones armadas palestinas fueron atacadas intencionalmente, incluso si eso significaba matar a todos los que estaban en el edificio.
En un caso, la inteligencia del ejército israelí aprobó el asesinato de cientos de palestinos para asesinar a un solo miembro de Hamás.
Manténgase informado con los boletines de MEE
Regístrese para recibir las últimas alertas, conocimientos y análisis.
comenzando con Turquía desempaquetada
«Esta es la primera vez que hablan de cómo se ataca a civiles a gran escala sólo por alcanzar un objetivo militar basado en tecnología de inteligencia artificial», dijo Anwar Mhajne, profesor de ciencias políticas en Stonehill College, en Massachusetts, dijo a Middle East Eye.
«No es nada factible»
Al hablar del sistema Habsora, una fuente dijo a los medios israelíes que la atención se centra en la cantidad, no en la calidad. Agregaron que si bien un ojo humano revisará los objetivos antes de cada ataque, no se necesita mucho tiempo para ello.
Mhajne dijo: «Si estás librando una guerra a una escala como la que estás librando ahora mismo en Gaza, ¿cuánto puedes revisar?».
Un experto israelí en el uso militar de la IA, que habló con MEE bajo condición de anonimato, dijo que tener una revisión humana de cada objetivo generado por la IA en Gaza «no es factible en absoluto».
Añadió que el algoritmo no explica cómo llega a sus conclusiones, lo que dificulta comprobar la validez del resultado de una huelga.
Siga la cobertura en vivo de Middle East Eye para conocer lo último sobre la guerra entre Israel y Palestina
Dado que Israel estima que Gaza tiene alrededor de 30.000 miembros de Hamás, los expertos se preocupan por las bajas civiles masivas que pueden causarse al depender de esos sistemas.
El ejército israelí supuestamente cree ha matado a entre 1.000 y 2.000 miembros de Hamás en Gaza desde el 7 de octubre. Más de 15.000 palestinos han sido asesinados en ese tiempo, incluidos al menos 6.150 niños.
«Estamos hablando de miles de civiles que han sido asesinados [due to the use] de dicha tecnología», dijo a MEE Mona Shtaya, miembro no residente del Instituto Tahrir para la Política de Oriente Medio, con sede en Washington.
‘Un sistema de vigilancia más grande’
Según Shtaya, el uso de la IA por parte de Israel como herramienta militar y de vigilancia no es nuevo ni inesperado.
«La IA es parte de un sistema de vigilancia más amplio, donde los palestinos viven bajo vigilancia constante», dijo.
En 2021, un Investigación del Washington Post reveló que los soldados israelíes utilizaron un extenso programa de reconocimiento facial para mejorar su vigilancia de los palestinos en la ciudad ocupada de Hebrón, en Cisjordania. El ejército también instaló cámaras de escaneo facial en toda la ciudad «para ayudar a los soldados en los puestos de control a identificar a los palestinos incluso antes de que presenten sus documentos de identidad».
Ese mismo año, Amazon Web Service y Google firmaron un acuerdo de 1.200 millones de dólares con el gobierno de Israel conocido como Proyecto Nimbus. Empleados de ambas empresas prevenido que este servicio en la nube «permite una mayor vigilancia y recopilación ilegal de datos sobre los palestinos, y facilita la expansión de los asentamientos ilegales de Israel en tierras palestinas».
Según se informa, Israel también utilizó IA en su anterior gran ofensiva en Gaza en 2021, en lo que llamado «La primera guerra de IA del mundo». Durante esta batalla de 11 días, los drones supuestamente mataron a civiles, dañaron escuelas y clínicas médicas y arrasaron edificios de gran altura.
Ahora, en la guerra de Gaza se emplean sistemas más desarrollados para llegar incluso a predecir el número de víctimas civiles que causaría un ataque.
«Nada sucede por accidente», dijo una fuente a +972 Magazine y Local Call. «Cuando una niña de tres años es asesinada en una casa en Gaza, es porque alguien en el ejército decidió que no era gran cosa que la mataran, que era un precio que valía la pena pagar para poder atacar». [another] objetivo. No somos Hamás. Estos no son cohetes aleatorios. Todo es intencional. Sabemos exactamente cuántos daños colaterales hay en cada hogar».
‘Tienen un campo de pruebas’
La guerra actual comenzó cuando las facciones palestinas lideradas por Hamás lanzaron un ataque contra Israel, matando a más de 1.200 israelíes y tomando cautivas a unas 240 personas. Israel respondió bombardeando intensamente la Franja de Gaza e invadiendo el enclave costero, destruyendo gran parte de la infraestructura civil en el proceso.
Fuentes de la investigación dijeron que creen que la matanza y la destrucción generalizadas podrían utilizarse para dar al público israelí una imagen de victoria. Mhajne cree que este objetivo puede ampliarse a la imagen de la tecnología israelí.
Guerra Israel-Palestina: lo que sabemos hasta ahora sobre el fin de la tregua en Gaza
Leer más »
«Los ataques de Hamás mostraron las debilidades de la IA en lo que respecta a la vigilancia», afirmó.
Según ella, la capacidad de Hamás de irrumpir en Israel sin ser notada después de que sus combatientes desmantelaran las torres de señales alrededor de la Franja de Gaza causó graves daños a la reputación.
La tecnología de software espía israelí se ha utilizado especialmente en muchos países para objetivo periodistas y activistas.
Israel es también el país del mundo. Décimo mayor exportador de armascon una reputación particularmente sólida en ciberseguridad y armamento de inteligencia artificial.
«Prueban cosas con los palestinos. Por eso Israel está a la cabeza en lo que respecta al desarrollo de la ciberseguridad y la inteligencia artificial, porque tienen un campo de pruebas», dijo Mhajne.
«Nadie les habla sobre cómo la están desarrollando y cómo la están probando. Les garantizo que esta tecnología, después de la guerra, se venderá a todos los regímenes represivos que conozcan».
Shtaya estuvo de acuerdo y dijo que la tecnología de guerra de IA como Habsora «sólo se utiliza para impresionar y facilitar su trabajo en la destrucción de la Franja de Gaza».
Si bien este sistema sigue estando estrictamente en manos del ejército israelí en la actualidad, el experto israelí cree que eso cambiará.
«En el futuro, la gente que trabaja allí se irá al sector privado y fabricará cosas similares y las exportará, con seguridad», dijo, afirmando que las ventas de armas israelíes ya se han disparado. «Esta guerra ya es excelente para los traficantes y exportaciones de armas israelíes».
‘No hay límite’
Si bien muchos piden que Israel rinda cuentas por sus acciones en Gaza, los organismos de la ONU advierten que podrían dar lugar a acusaciones de crímenes de guerra y genocidioresponsabilizarlo por su uso de la IA puede ser más complicado.
Mientras algunos gobiernos y organizaciones internacionales regular el uso de la IA con fines militares diciendo que debe permanecer dentro de los límites del derecho internacional, hay pocas o ninguna regulación específica de la IA relacionada con la guerra.
Además, hasta ahora Israel no muestra signos de regular el uso de esta nueva tecnología, incluso si eso significa matar a más civiles.
«Debido a que Israel ve a Hamás ahora como una amenaza existencial, no hay límite», dijo el experto israelí a MEE, sugiriendo que podría llegar incluso a matar a cautivos israelíes si eso significa llegar a los principales comandantes de Hamás.
«La IA seguramente está dando al ejército una ilusión de precisión y análisis matemáticos, lo cual es falso», dijo. «Todos los defectos humanos de los que aprendió el algoritmo son automáticos allí».
El Comité Internacional de la Cruz Roja cree La IA puede ser una herramienta que permita tomar mejores decisiones en los conflictos y ayude a evitar víctimas civiles. Shtaya también cree que estos avances tecnológicos, cuando se utilizan correctamente, en general pueden mejorar la calidad de vida de las personas.
«Es doloroso y devastador ver este tipo de tecnología utilizada por el Estado para oprimir a la gente y hacerles la vida más difícil, sólo para recibir este castigo colectivo», dijo.