Buscamos personas que hayan vivido la guerra civil, el franquismo o las luchas obreras de los años 70 y 80.
Si conoces a alguna que quiera dar a conocer su historia, sus vivencias, ponte en contacto con nosotros: cgtbilbao@cgt-lkn.org


----------------------------------------------------------------------------

BIBLIOTECA: listado de libros en papel que puedes leer gratis.
Si quieres participar en la biblioteca, o donar libros etc, ponte en contacto con nosotros: cgtbilbao@cgt-lkn.org


----------------------------------------------------------------------------
Web de IROLA IRRATIA 107.5 fm, okupando las ondas desde 1987.


----------------------------------------------------------------------------


Podcast LINTERNA DE DIÓGENES es un programa dedicado a la Historia Social, la Historia de las clases populares, en definitiva, la historia desde abajo.


---------------------------------------------------------------------------- Libre Pensamiento, revista que se intenta del pensamiento libre; que trata de temas sociales en la consideración de que todos lo son o de que nada nos es ajeno.

Nota sobre derechos de autor:

En este blog se recogen artículos y monografías históricas de diversos autores, publicadas en otros medios; la autoría de todos ellos y la fuente es citada en cada artículo. Las fotografías que le acompañan son tomadas habitualmente del buscador de google, desconociendo si en algún caso pueden tener derechos de autor, si así fuera, pueden comunicarlo a cgtbilbao@cgt-lkn.org y serán retiradas de inmediato.

 

Esta web utiliza cookies para optimizar la navegación.
Al continuar navegando está aceptando su uso y nuestra política de cookies y ver la forma de desactivarlas. Internet Explorer, FireFox, Chrome, Safari

EL NEGOCIO DE LAS ARMAS QUE VAN CONTRA LA ÉTICA Y LAS PERSONAS


El negocio de las armas que van contra la ética y las personas

Miércoles 22 de enero de 2020. Nodo50 | Descargar artículo en PDF

Fuente: El Salto

Industria armamentística

Por Pere Brunet

Los sistemas de armas autónomas nos sitúan en un claro escenario de deshumanización, fuera de los planteamientos éticos más básicos.

Las conversaciones que la Convención de Armas Convencionales de la ONU (CCW) celebró en Ginebra los pasados días 19, 20 y 21 de agosto, no acabaron bien. La reunión, con representantes de más de 80 países, trataba el tema de las armas totalmente autónomas. Un total de 28 países piden su prohibición, además de miles de expertos en inteligencia artificial y 21 premios nobel.

En su intervención, Mary Wareham, de Human Rights Watch y coordinadora de la campaña internacional Stop Killer Robots, mostró su profunda preocupación mientras constataba la poca atención que se está prestando a los aspectos éticos, morales, humanitarios y de derechos humanos. Pero al final, según fuentes de personas asistentes a la convención, algunos Estados— como los Estados Unidos y Rusia— boicotearon la toma de acuerdos que hubieran permitido avanzar.

Los sistemas de armas autónomas, que por definición deciden a quién atacar y que a continuación atacan sin intervención humana, nos sitúan en un claro escenario de deshumanización, fuera de los planteamientos éticos más básicos. Porque delegar en una máquina la decisión de matar va en contra de la dignidad humana y de los derechos de las personas, que pueden acabar siendo asesinadas extrajudicialmente con independencia, además, de si se encuentran implicadas o no en los conflictos.

Estas armas autónomas, todavía en fase de estudio y diseño, desgraciadamente tienen muchos defensores. Los drones que rondan (loitering) y los enjambres de drones (dron swarms) que están fabricando Estados Unidos, Rusia, China, Israel, el Reino Unido y otros países, pueden evolucionar fácilmente hasta disponer de capacidades totalmente autónomas. Su fabricación y venta será un gran negocio. Solo hay que observar que los sistemas militares robóticos, y en particular los drones, han conseguido abaratar drásticamente las operaciones militares mientras han incrementado significativamente el volumen de negocio del sector industrial militar. El sector de las empresas que fabrican y exportan drones militares se encuentra ya en pleno auge.

Por otro lado, los drones permiten llevar a cabo acciones sin riesgo y sin cobertura mediática en un estado de cosas que se mantendrá, si no ponemos remedio, cuando aparezcan los drones letales autónomos. Estos sistemas acabarían rebajando los umbrales para iniciar acciones militares, descartando soluciones basadas en la política y el diálogo y posibilitando una escalada incontrolada de los conflictos. Un escenario que algunos, interesadamente, ven muy atractivo.

En este contexto, puede ser bueno aportar un comentario sobre los sistemas de aprendizaje profundo (de inteligencia artificial) que se encontrarán en el corazón de la gran mayoría de estos sistemas de armas autónomas. A lo largo de los últimos años se ha ido construyendo una falsa narrativa que habla solo de las bondades de la inteligencia artificial, y que tiene tendencia a ignorar todos aquellos aspectos que, por ejemplo en el campo militar, podrían suponer una crítica negativa a su funcionamiento.

Desde los sectores científicos y académicos, en cambio, se ha intentado generar conciencia sobre los riesgos asociados a determinados usos de estos sistemas de inteligencia artificial que pueden ser extremadamente lesivos para los derechos civiles y humanos, sobre todo cuando se militariza la tecnología. Porque, como es muy conocido, los sistemas militares robóticos autónomos basados en técnicas de aprendizaje profundo tendrán comportamientos no explicables, es probable que tomen “decisiones” sesgadas (debidas en parte a sesgos en el big data que usarán para aprender) y tendrán un grado limitado de fiabilidad. Esto los convierte esencialmente en no aptos en situaciones donde los errores serán vidas humanas y donde su inherente inexplicabilidad hará difícil, además, la rendición de cuentas.

Teniendo en cuenta la vulneración de principios jurídicos como el de distinción, que obliga a distinguir entre combatientes y no combatientes, y el de responsabilidad, que pide que después de toda acción pueda haber una persona que sea responsable legalmente, parece claro que habría que aplicar el también principio legal de precaución, actuando antes de que estos sistemas sean desarrollados, y parando la actual carrera, previa en el despliegue de las armas autónomas.

El secretario general de la ONU, António Guterres, lo dijo muy claro: “Las máquinas que puedan tener el poder y la capacidad de matar personas son políticamente inaceptables, son moralmente repugnantes, y tendrían que ser prohibidas por el derecho internacional”. Hará falta un gran esfuerzo internacional para conseguir una desmilitarización en este campo de los drones militares, y sobre todo para llegar a un acuerdo mundial de prohibición de los sistemas de armas autónomas.

Versión PDF: Descargar artículo en PDF | Enlace permanente: info.nodo50.org/6206

Comentarios cerrados