El negocio de las armas que van contra la ética y las personas
Miércoles 22 de enero de 2020. Nodo50 | Descargar artículo en PDF
Fuente: El Salto
Industria armamentística
Por Pere Brunet
Los sistemas de armas autónomas nos sitúan en un claro escenario de deshumanización, fuera de los planteamientos éticos más básicos.
Las conversaciones que la Convención de Armas Convencionales de la ONU (CCW) celebró en Ginebra los pasados días 19, 20 y 21 de agosto, no acabaron bien. La reunión, con representantes de más de 80 países, trataba el tema de las armas totalmente autónomas. Un total de 28 países piden su prohibición, además de miles de expertos en inteligencia artificial y 21 premios nobel.
En su intervención, Mary Wareham, de Human Rights Watch y coordinadora de la campaña internacional Stop Killer Robots, mostró su profunda preocupación mientras constataba la poca atención que se está prestando a los aspectos éticos, morales, humanitarios y de derechos humanos. Pero al final, según fuentes de personas asistentes a la convención, algunos Estados— como los Estados Unidos y Rusia— boicotearon la toma de acuerdos que hubieran permitido avanzar.
Los sistemas de armas autónomas, que por definición deciden a quién atacar y que a continuación atacan sin intervención humana, nos sitúan en un claro escenario de deshumanización, fuera de los planteamientos éticos más básicos. Porque delegar en una máquina la decisión de matar va en contra de la dignidad humana y de los derechos de las personas, que pueden acabar siendo asesinadas extrajudicialmente con independencia, además, de si se encuentran implicadas o no en los conflictos.
Estas armas autónomas, todavía en fase de estudio y diseño, desgraciadamente tienen muchos defensores. Los drones que rondan (loitering) y los enjambres de drones (dron swarms) que están fabricando Estados Unidos, Rusia, China, Israel, el Reino Unido y otros países, pueden evolucionar fácilmente hasta disponer de capacidades totalmente autónomas. Su fabricación y venta será un gran negocio. Solo hay que observar que los sistemas militares robóticos, y en particular los drones, han conseguido abaratar drásticamente las operaciones militares mientras han incrementado significativamente el volumen de negocio del sector industrial militar. El sector de las empresas que fabrican y exportan drones militares se encuentra ya en pleno auge.
Por otro lado, los drones permiten llevar a cabo acciones sin riesgo y sin cobertura mediática en un estado de cosas que se mantendrá, si no ponemos remedio, cuando aparezcan los drones letales autónomos. Estos sistemas acabarían rebajando los umbrales para iniciar acciones militares, descartando soluciones basadas en la política y el diálogo y posibilitando una escalada incontrolada de los conflictos. Un escenario que algunos, interesadamente, ven muy atractivo.
En este contexto, puede ser bueno aportar un comentario sobre los sistemas de aprendizaje profundo (de inteligencia artificial) que se encontrarán en el corazón de la gran mayoría de estos sistemas de armas autónomas. A lo largo de los últimos años se ha ido construyendo una falsa narrativa que habla solo de las bondades de la inteligencia artificial, y que tiene tendencia a ignorar todos aquellos aspectos que, por ejemplo en el campo militar, podrían suponer una crítica negativa a su funcionamiento.
Desde los sectores científicos y académicos, en cambio, se ha intentado generar conciencia sobre los riesgos asociados a determinados usos de estos sistemas de inteligencia artificial que pueden ser extremadamente lesivos para los derechos civiles y humanos, sobre todo cuando se militariza la tecnología. Porque, como es muy conocido, los sistemas militares robóticos autónomos basados en técnicas de aprendizaje profundo tendrán comportamientos no explicables, es probable que tomen “decisiones” sesgadas (debidas en parte a sesgos en el big data que usarán para aprender) y tendrán un grado limitado de fiabilidad. Esto los convierte esencialmente en no aptos en situaciones donde los errores serán vidas humanas y donde su inherente inexplicabilidad hará difícil, además, la rendición de cuentas.
Teniendo en cuenta la vulneración de principios jurídicos como el de distinción, que obliga a distinguir entre combatientes y no combatientes, y el de responsabilidad, que pide que después de toda acción pueda haber una persona que sea responsable legalmente, parece claro que habría que aplicar el también principio legal de precaución, actuando antes de que estos sistemas sean desarrollados, y parando la actual carrera, previa en el despliegue de las armas autónomas.
El secretario general de la ONU, António Guterres, lo dijo muy claro: “Las máquinas que puedan tener el poder y la capacidad de matar personas son políticamente inaceptables, son moralmente repugnantes, y tendrían que ser prohibidas por el derecho internacional”. Hará falta un gran esfuerzo internacional para conseguir una desmilitarización en este campo de los drones militares, y sobre todo para llegar a un acuerdo mundial de prohibición de los sistemas de armas autónomas.
Versión PDF: Descargar artículo en PDF | Enlace permanente: info.nodo50.org/6206