IA EN JERUSALÉN. DONDE TODOS SON CULPABLES, NADIE LO ES

IA EN JERUSALÉN. DONDE TODOS SON CULPABLES, NADIE LO ES 

En 2021 se publicó en inglés un libro titulado “El equipo humano-maquina: Como crear sinergia entre la inteligencia humana y artificial que revolucionará nuestro mundo” bajo el seudónimo de “Brigadier General YS”. En sus páginas, el autor-un hombre cuya identidad confirmamos como el actual comandante de la unidad de inteligencia israelí 8.200- defiende la creación de una máquina capaz de procesar ingentes cantidades de datos en cuestión de segundos para generar miles de posibles “objetivos” militares en plena guerra. Según su argumento, esta tecnología resolvería lo que el define como un “cuello de botella humano” tanto en la localización de nuevos objetivos como en la toma de decisiones para aprobar ataques. 

Lo inquietante es que esta máquina no es una mera teoría. Existe. 

En los últimos años, comenzando precisamente desde el ataque “Guardián de los muros”, la guerra de 11 días que Israel  libró contra Hamas en mayo de 2021, el ejército israelí ha desarrollado y utilizado sistemas de inteligencia artifiical para la selección de objetivos en Gaza. Tres programas han llamado la atención por su impacto en las operaciones militares y sus implicaciones éticas: Lavender, The gospel y Where ´s daddy?. 

El periodista Yuval Abraham consiguió testimonios de seis oficiales de inteligencia israelíes sobre estos programas de inteligencia artificial y sus rutinas diarias durante los bombardeos sobre Gaza. Algunos de estos testimonios irán apareciendo a lo largo del artículo. 

Lavender: la IA que etiqueta objetivos humanos 

Lavender es un sistema de inteligencia artificial desarrollado por la Unidad 8.200, cuerpo de espionaje de élite de las Fuerzas de Defensa de Israel (FDI) para identificar presuntos militantes de Hamás y otros grupos armados en Gaza. Funciona como un software de clasificación que asigna puntuaciones de amenaza a personas en función de datos recopilados de múltiples fuentes, incluyendo comunicaciones interceptadas, actividad en redes sociales y patrones de movimiento. 

Los algoritmos de Lavender operan con una base de datos extensa que cruza información de registros precios de inteligencia, escuchas telefónicas, geolocalización y antecedentes familiares. Se estima que este sistema ha señalado a decenas de miles de personas como amenazas potenciales, aunque sin un proceso claro de verificación humana antes de que sean atacadas. Algunos informes sugieren que el modelo de IA se basa en patrones de comportamiento que no siempre son indicativos de una actividad armada. Por ejemplo, el simple hecho de comunicarse con individuos considerados sospechosos puede bastar para que alguien sea marcado como objetivo. Esto introduce unmargen de error significativo en la generación de objetivos. Los oficiales señalaron que el ejército dependió casi por completo de Lavender en las etapas iniciales de los bombardeos, confiando en sus listas de objetivos sin una verificación exhaustiva de la información subyacente. A pesar que se reconoció que Lavender tenía una tasa aceptada de error del 10%, lo que implicaba que individuos con conexiones mínimas o inexistentes con grupos miiitantes podían ser marcados. Erróneamente, las operaciones continuaron basándose en sus recomendaciones. Un agente del ejército israelí cuestiona que los seres humanos fueran mejores en el proceso de selección de objetivos: “Yo le dedicaba veinte segundos a cada objetivo, solo para determinar que era un hombre, y hacía docenas de evaluaciones por día; como ser humano no aportaba ningún valor añadido, más allá del sello de aprobación; Lavender ha ahorrado mucho tiempo”. 

The gospel (El evangelio): produccción masiva de objetivos. 

 Este sistema se enfoca en lograr objetivos militares en grandes volúmenes. Implementado desde 2019, The Gospel fué diseñado para  identificar infraestructuras y miembros de grupos armados mediante análisis de datos masivos. 

A diferencia de Lavender, que se enfoca en individuos específicos, The Gospel amplía su campo de acción a toda la  infraestructura supuestamente utilizada por Hamás y la YIhad Islámica Palestina. Su propósito es analizar patrones de uso de edificaciones, centros de comando y túneles subterráneos para determinar qué estructuras pueden bombardeadas. Esto ha permitido que el ejército israelí  genere listas de objetivos con una rapidez sin precedentes. Uno de los elementos más controvertidos de esta IA es que, al igual que Lavender, su grado de precisión no está del todo claro. Fuentes militares han reconocido que los algoritmos de estos sistemas pueden fallar y marcar como objetivos infraestructuras civiles utilizadas por la población general. Esto ha llevado a ataques sobre edificios residenciales, clínicas e incluso escuelas, bajo la premisa de que podrían estar siendo empleados por grupos armados. Según declaraciones de Aviv Kochavi, antiguo jefe de la unidad israelí de generación de objetivos. En 2021 al activar este programa, “antes generábamos 50 objetivos en Gaza por año: esta máquina genera 100 objetivos cada día, de los que el 50% es atacado”. Esta unidad ha ayudado al ejército israelí a crear una base de datos de entre 30.000 y 40.000 presuntos militantes. El ejército israelí (FDI) ha afirmado que este programa ha desempeñado un papel fundamental en la redacción de listas con el nombre de personas susceptibles de ser asesinadas. Según HUman Rights Watch, estas herramientas implican una “vigilancia constante y sistemáticas de los residentes palestinos de Gaza” e incluyen “datos recopilados antes de las hostilidades actuales, antes del 7 de octubre”. De esta manera “utilizan los datos personales de los palestinos para realizar predicciones de amenazas, identificación de objetivos y aprendizaje automático” el nombre de esta Inteligencia Artificial en hebreo es Habsora, que significa “buena nueva” o “buenas noticias”. 

Where is Daddy? (¿Dónde está papá?): Localización y eliminación de presuntos combatientes en sus hogares 

Este programa ha sido desarrollado específicamente para rastrear a individuos que han sido marcados por Lavender o The Gospel y atacar sus domicilios. Where is Daddy? Monitorea a presuntos combatientes con tecnología de seguimiento en tiempo real, centrándose en sus movimiento hacia o desde sus hogares. El nombre del programa proviene de su uso principsl: localizar cuándo un objetivo regresa a casa y atacar el edificio en ese momento, con el objetivo de asegurarse de que la persona esté dentro. El ejercito israelí atacó sistemáticamente a los individuos señalados mientras se encontraban en sus hogares, generalmente surante la noche cuando sus familias estaban presentes. Esta estrategia se adoptó porque, desde una perspectiva de inteligencia, era más sencillo localizar a las personas en sus residencias privadas. El ejército autorizaba de antemano un número estimado de muertes civiles considerado permisible y proporcionado. En las primeras semanas de la guerra tenían permitido matar a 15 o a 20 civiles durante ataques aéreos contra militantes de bajo rango. Por lo gneral, los ataques contra este tipo de objetivos se ejecutaban con municiones no guiadas, denominadas bombas tontas, que destruían casas enteras y mataban a todos los que se encontraban en su interior. “Normalmente ejecutábamos los ataques con bombas tontas y eso significaba dejar que la casa entera se desplomara literalemnte sobre sus ocupantes”, “No quieres gastar bombas caras en gente sin importancia; es muy caro para el país y hay escasez (de esas bombas)”. 

Según otro de los agentes entrevistados, la cuestión clave era determinar los “daños colaterales” a civiles permitidos en un ataque. “Pero incluso si un ataque es evitado, no te importa. Pasas inmediataemnte al objetivo siguiente: con el sistema de IA, los objetivos no se terminan nuca. Tienes a otros 35.000 esperando”. +972 Magazine revela que, en ataques contra un alto cargo de Hamás, las FDI consideraron permisible matar a más de cien civiles. “Teníamos un cálculo de cuántos (civiles podían ser asesinados) por un comandante de brigada, cuántos por un comandante de batallón, y así sucesivamente”, detalla una fuente. Otra dice que “había normas, pero eran muy permisivas”: “Hemos matado a gente con un daño colateral de dos dígitos, cuando no de trres; son cosas que no habían ocurrido antes” en otras ofensivas. 

Según las declaraciones tomadas por Yuval Abraham, a medida que el ejército israelí intensificaba el bombardeo sobre Gaza, los comandantes exigían que no dejara de haber nuevos objetivos. “Nos presionaban todo el rato: “traednos más objetivos”, nos gritaban”, dice un agente. Según su testimonio, los comandantes insistían en que ese era el momento para “joder a Hamás cueste lo que cueste”. “Todo lo que puedas bombardéalo, nos decían. 

 

La Corte Internacional de Justicia (CIJ) en julio de 2024 declaró que Israel perpetra discriminación y aparheid contra los palestinos. Esta dinámica social y de estado, también influye en el desarrollo de la inteligencia artificial. A pesar de que el resultado de los sistemas algorítmicos se nos presenta como neutral, las máquinas reflejan los sesgos de sus programadores y, por lo tanto, de la sociedad en la que viven. ESte sesgo también se traslada al desarrollo  y uso de herramientasd digitales que determinan si se puede atacar a personas o lugares como objetivo militar. Como resalta antony Loewenstein, autor de “El laboratorio palestino”: “los palestinos han sido las cobayas del armamento y la tecnología de seguridad israelí desde hace décadas. El laboratorio palestino ha sido una política estatal casi durante tqanto tiempo como la ocupación istraelí del territorio palestino. Es más, desde los años 2000, las tecnológicas que fueron naciendo en Israel y que acabarían siendo punteras en todo el mundo son “empresas de defensa cuyo objetivo principal era monetizar la ocupación y vender la experiencia de control a otro pueblo en el mercado global”. 

Después del corta y pega de cifras y declaraciones nos dirigimos a la Inteligencia Artificial para que, basándose en lo ya elaborado, escribiera unas líneas de cierre al estilo periodistico de la Ekintza Zuzena y similares (si es que las hay). Su cierre era este. 

“Este uso de IA no es un error ni una anomalía, sino la continuación de una política de aparheid tecnológico. Israel ha convertido Gaza en un laboratorio, un terreno de prueba donde sus avances en ciberseguridad, reconocimiento facial y drones autónomos se refinan sobre los cuerpos palestinos. La ocupación no sólo controla el aire y el suelo, sino que también domina los datos, los flujos de información y l apropia memoria de los crímenes cometidos. El riesgo de delegar las decisiones de vida y muerte en la IA no es sólo la pérdida de humanidad en la guerra, sino la consolidación de un modelo donde la ocupación se vuelve más eficiente y menos cuestionada. Con cada asesinato automatizado, se refuerza la ilusión de la “neutralidad” de la tecnología, cuando en realidad estos sistemas han sido diseñados con una ideología genocida”. 

Sin duda la inteligencia artificial es buena ejecutora. 

Agencia moral y responsabilidad en sistemas artificiales 

Los altos mandos del ejército de Israel declaran que sus programas toman sus decisiones más fríamente que sus soldados y que el margen de error es menor con máquinas que con humanos. Este pensamiento es fundamental y esa la base de la utilización de las nuevas herramientas: justificar la cesión de decisiones a la tecnología y así normalizar la idea de que las máquinas decidan por nosotros. 

No es solo la efectividad y la capacidad de desolación que puede generar la IA en una guerra, sino también, la suposición de que las decisiones sobre la vida y la uerte podrán quedar completamente en manos de algoritmos. Generando la posibilidad para los humanos de eludir la responsabilidad. El ejercito que ejecuta estos ataques devastadores probablemente no tenga que lidiar con agentes que sufren de estrés postraumático ni culpabilidad alguna, ya que la decisión de a quién asesinar ha sido tomada por una máquina. Un programa informático que, en última instancia, ha sido creado y suministrado por sus superiores. Israel ha entrado en un terreno desconocido para la guerra moderna, generando nuevas cuestiones jurídicas y, sobre todo, éticas. La discusión sobre si las máquinas pueden ser consideradas agentes morales puede plantear preguntas, pero dado que las IA carecen de conciencia, la responsabilidad recae en los humanos que las diseñan y utilizan. Como se señala en el artículo “¿Sueñan las máquinas con derechos y libertades?”: “Una IA no puede ser responsable moral porque no tinene la capacidad de llevar a cabo acciones morales y justificar el porqué  las hace”. 

Hanna Arendt, en su obra “Eichman en Jerusalén”. (obra a la que alude el título del artículo, y que, también, tristemente satiriza) analiza el juicio de Adolf Eichmann, un alto funcionario nazi responsable de la organización logística del Holocausto. A partir de este juicio, Arendt desarrolla toda una reflexión sobre la responsabilidad individual y colectiva en contextos de gobiernos autoritarios y crímenes de guerra. 

Arendt introduce el concepto de la “banalidad del mal” al describir a Eichmann no como un monstruo, sino como un burócrata que cumplía órdenes. Según el análisis de Arendt, Eichmann no actuó por odio o crueldad, sino por una “combinación de obediencia ciega, falta de pensamiento crítico y un sentido deformado del deber”. Arendt sostiene que el mal también se manifiesta en la incapacidad de los individuos de cuestionar sus acciones y su papel dentro de estructuras opresivas. 

¿Hasta que punto un individuo es responsable de sus actos si simplemente sigue órdenes dentro de un sistema que legitima el genocidio?¿hasta que punto un individuo es responsable de sus actos si simplemente sigue órdenes “de una máquina” dentro de un sistema que legitima un genocidio? 

Cuando la sociedad entera participa, de manera activa o por omisión, en un sistema de injusticia, la culpa se diluye y desaparece la obligación de asumir responsabilidades porque como dijo la propia Hanna Arendt: “Donde todos son culpables, nadie lo es”. 

NO sólo Israel 

Israel no es el único país que utiliza inteligencia artificial en sus operaciones militares. En Ucrania, diversas empresas tecnológicas internacionales desarrollan software que es responsable de la mayor parte de la selección de objetivos contra Rusia. Estados Unidos, China, la propia Rusia y España- con la compra por parte del Instituto de Comercio Exterior de tecnología israelí y su polémico uso del programa Pegasus, aunque no sea técnicamente una IA avanzada-se han sumado a esta macabra carrera. Por supuesto, muchas empresas promocionan material militar que el ejército israelí está probando en Gaza (incluyendo perros-robots para búsqueda, control y vigilancia). Las grandes empresas tecnologicas se han lanzado al negocio. Open AI ya está trabajando con el Pentágono y Google ha actualizado su guía ética de la Inteligencia Artificial para permitir la aplicación de esta tecnología en armamento o en sistemas de vigilancia que violen los derechos humanos. Anteriormente, la corporación vetaba específicamente el uso de su IA en “armas u otras tecnologías cuya finalidad o aplicación principal sea causar o facilitar directamente lesiones a las personas”. La empresas de Silicon Valley se ha justificado en la necesidad de ganar la carrera de la Inteligencia Artificial. “Se está produciendo una competición mundial por el liderazgo de la IA en un panorama geopolítico cada vez más complejo. Creemos que las democracias deben liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto de los derechos humanos”. 

Share