Jordi Bonet Pérez
¿En pie contra la digitalización y la automatización?
UNA VOZ.- ¡La tempestad ha cerrado la puerta! La tormenta y la máquina se han conjurado contra nosotros.
INGENIERO.- (Desde el puente, con gestos dislocados.) Ji… Ji… ¡La máquina no ha muerto! ¿No veis cómo clava sus garras en vuestros corazones? Ji… ji… ji… ji… Contra los pueblos en paz van los ejércitos, cuyo aliento emponzoñado marchita las flores y las plantas. La Humanidad es ya un enorme aparato de relojería ¡Tic, tac, por la mañana; tic, tac, por la tarde; tic, tac por la noche II Un hombre es el brazo; otro, la pierna; otro… es el cerebro, pero el alma… el alma ha muerto!
(Ernst Toller, Los destructores de máquinas (drama), Acto Quinto, Escena Tercera).
El drama de Ernst Toller —él mismo protagonista de la Historia en tanto que llegó a ser presidente de la República de los Consejos de Múnich durante la revolución bávara de 1918— sitúa en el centro de la acción al movimiento ludita, surgido tras la destrucción de los telares y el incendio de una fábrica el 12 de abril de 1811 en Nottighamshire[1]. El ludismo toma su nombre de Ned Ludd, que en 1779 había presuntamente destrozado por razones similares dos telares, y constituye el reflejo y la manifestación del temor de muchos trabajadores y artesanos ingleses (aunque pueden encontrarse manifestaciones luditas puntuales en países como España, como los sucesos de Alcoy de 1821) a la pérdida de su ocupación por causa de la automatización de tareas debida al creciente impulso de la maquinización de la producción.
En Inglaterra, el movimiento fue fuertemente reprimido, tanto por la cantidad de militares que se empeñaron en su persecución (diez mil), como por la dureza del castigo penal establecido dentro del Bloody Code: podía acarrear la pena de muerte (que, efectivamente, fue aplicada mediante ahorcamiento a unos cuantos de los miembros del movimiento ludita[2]).
Los hechos acontecidos a principios del siglo XIX, más allá de la dramatización realizada por Toller, sitúan el miedo a los cambios productivos y a la pérdida, o depauperación, de los medios de vida de los trabajadores y artesanos en el centro del escenario político y social. Los luditas proyectan la desconfianza de ciertas capas sociales ante las consecuencias laborales y sociales de los cambios tecnológicos aplicados a la mejora de la productividad, encauzándola a través del ejercicio de la violencia contra los nuevos medios de producción. Es una lucha —más bien inútil— contra el progreso y el dominio de los medios de producción, pero también contra el poder derivado de su disponibilidad y de su connivencia con un poder político plenamente plegado a los intereses capitalistas.
El interrogante es si estos acontecimientos, que indudablemente en el plano simbólico adquieren “una especial significación en nuestro presente marcado por la dominación técnica”[3], pueden tener su traslación a este escenario actual de transformación, en que la ciencia y la tecnología están permitiendo una progresiva mutación del paradigma productivo impulsado por el avance de la digitalización y la automatización de la economía, de algún modo explicitado como conjunto con la idea de la “Revolución 4.0”. La inteligencia artificial es un exponente de la base tecnológica esencial para los cambios que se avecinan y un factor determinante de una lógica productiva sustentada en la disponibilidad de información como motor y referente de los procesos de producción y prestación de servicios.
Ya analicé hace tiempo las tendencias en el ámbito laboral y de la concreción de los términos de las relaciones laborales que acompañaban a la progresiva implantación de un modelo productivo caracterizado por la digitalización y automatización de la economía[4]. La profundización en este proceso entraña riesgos, particularmente durante el período de transición económica y laboral, que pueden focalizarse en un aumento del desempleo, la polarización del mercado del trabajo y —dentro de este espectro— la aparición de nuevas formas de trabajo y contratación susceptibles de generar dudas sobre su calificación y tratamiento jurídico (por ejemplo, es importante el caso de los riders).
No parece que haya sensibilidades suficientemente consolidadas para afirmar la existencia de movimientos neoluditas en pleno siglo XXI que aboguen por el empleo de la violencia para impedir el tránsito hacia una nueva economía, por mucho que puedan identificarse en varios lugares del mundo “arrebatos de furia” susceptibles de ser, en apariencia, considerados como (o asimilados a) una manifestación neoludita. Negrón niega la condición de luditas de quienes protestaron violentamente en Chile durante 2019, ya que su protesta no estaba de forma directa vinculada a reivindicaciones relacionadas con los cambios tecnológicos y su ejercicio de la violencia fue dirigido contra bienes públicos, no privados[5]. Tampoco es que por ahora exista un sentimiento mayoritario en los países más desarrollados que identifique la digitalización y la automatización como la causa más sensible de la evolución en negativo de las expectativas laborales generalizadas: “la mayoría de la gente considera [o sigue considerando] que la pérdida de empleos y el deterioro en la calidad del trabajo son resultado del outsourcing, de las importaciones realizadas desde economías de salarios bajos y (erradamente) de la inmigración”[6].
Más bien, la consolidación de la tendencia hacia la digitalización y automatización de la economía —y la necesidad de la aplicación masiva de la inteligencia artificial— parece ir consolidándose en ausencia de una posición insalvable que cuestione su progresiva implementación. Se antoja, a pesar de sus repercusiones y las tensiones generadas, un proceso irreversible y quizá necesario a pesar de sus potenciales consecuencias en el escenario laboral y en la configuración de las relaciones laborales. Es probable que en ello tengan que ver factores como la propia comprensión de lo imparable que resulta el progreso tecnológico o —alternativamente— la ignorancia de sus repercusiones, o la asunción de la coherencia de ese proceso basado en la aplicación de la tecnología con nuestras vidas, en las que observamos generalmente cómo los productos y las aplicaciones de carácter tecnológico las facilitan o nos las hacen presuntamente más felices.
Se cree poder afirmar, particularmente si se singulariza en el ámbito laboral, que la conflictividad, por lo general, se ha encauzado hacia las vías legales y judiciales, sin perjuicio de que, como se antoja inevitable, grupos de interés y/o de trabajadores hayan podido ejercer fórmulas de presión como los paros de actividad o las huelgas. Esta percepción, que por un lado parece perfilar la asunción de lo inevitable de los cambios sociolaborales (algo difícil de eludir), proyecta la impresión de que el ámbito de tensión y de lucha de los trabajadores debe ser el de asegurar unas condiciones de trabajo decentes para todos, así como la implicación de las Administraciones Públicas en la gestión de la transición socioeconómica, aportando seguridad económica mínima y formación a los perjudicados inicialmente por los efectos negativos de la transición, de manera similar a como se ha actuado y se está actuando con ocasión de la pandemia de COVID-19 o respecto a las repercusiones negativas de la invasión de Ucrania.
No obstante, el progreso tecnológico que impulsa la digitalización y la automatización no tiene solo repercusiones en el ámbito laboral, sino en todas las facetas de la vida humana. Así, es lógico observar cómo la inteligencia artificial, fundamental para el tránsito socioeconómico emprendido, puede impulsar aplicaciones capaces de mejorar la vida de las personas desde una pluralidad de perspectivas —salud, autonomía personal, disponibilidad de servicios, comunicación interpersonal, etc.—.
Pero también lo es, a su vez, observar que existen otro tipo de riesgos asociados a su empleo de los que, poco a poco, la sociedad —o parte de ella— es más consciente, no solo en términos de la protección de la privacidad en sentido estricto (aspecto en el cual hay que ser siempre precavido por cuanto, más allá de la actitud de las autoridades públicas —siempre preocupadas, quizá excesivamente, por la seguridad—, hay sectores sociales dispuestos a sacrificar en mayor o menor grado su privacidad, por lo que el balance dentro del binomio seguridad/libertad no es visto bajo la óptica del consenso y es un vector de debate político y jurídico no resuelto), sino también en la medida en que la utilización generalizada de la inteligencia artificial que, en conexión de un modo u otro a la privacidad, puede generar riesgos desde el prisma de la dignidad humana y de los derechos humanos.
A este respecto, se quieren señalar como significativas político-jurídicamente las prácticas de inteligencia artificial que pretenden ser prohibidas por la Unión Europea dentro de su Propuesta de Reglamento del Parlamento y del Consejo sobre inteligencia artificial[7]. Estas, junto a las condiciones que se imponen a los sistemas de inteligencia artificial de alto riesgo[8] —respecto de los cuales, uno de los aspectos a considerar es su incidencia negativa para los derechos fundamentales (Artículo 7.1b)—, parecen medidas orientadas a proteger al individuo frente a usos indebidos y nocivos de la inteligencia artificial.
En particular, conforme al artículo 5 de la propuesta, constituyen prácticas de inteligencia artificial prohibidas la introducción en el mercado, la puesta en servicio o la utilización de sistemas de inteligencia artificial que:
- se sirvan “de técnicas subliminales que trasciendan la conciencia de una persona para alterar de manera sustancial su comportamiento de un modo que provoque o sea probable que provoque perjuicios físicos o psicológicos a esa persona o a otra”;
- aprovechen “alguna de las vulnerabilidades de un grupo específico de personas debido a su edad o discapacidad física o mental para alterar de manera sustancial el comportamiento de una persona que pertenezca a dicho grupo de un modo que provoque o sea probable que provoque perjuicios físicos o psicológicos a esa persona o a otra”, y
- sirvan, siempre que sean usados por “autoridades públicas o en su representación”, para “evaluar o clasificar la fiabilidad de personas físicas durante un período determinado de tiempo atendiendo a su conducta social o a características personales o de su personalidad conocidas o predichas”, provocando un trato desigual o desfavorable hacia determinadas personas físicas o colectivos enteros (descritos en los apartados 5.1.c.i. y 5.1.c.ii.)[9].
Igualmente, el artículo 5.1.d) se refiere a la prohibición de la identificación biométrica remota “en tiempo real” en “espacios de acceso público con fines de aplicación de la ley”, salvo en la medida de su estricta necesidad para ciertos objetivos tasados[10], siempre teniendo presentes los aspectos señalados por el artículo 5.2 (naturaleza de la situación y consecuencias de su utilización).
La tipología de las tres primeras prácticas de inteligencia artificial inicialmente prohibidas, a priori, subraya la peligrosidad de determinadas técnicas destinadas a influir o a clasificar a determinadas personas y colectivos sociales, ya que pueden derivar en prácticas de facto discriminatorias, y no parece que sean fáciles de controlar a partir de la composición del propio sistema y de los algoritmos que lo conforman. Por ejemplo, las técnicas subliminales son perfectamente conocidas y están presentes en los medios de comunicación social y de entretenimiento —de modo mucho más evidente en los medios audiovisuales—; la pregunta es si será fácil evitar dentro de un sistema de inteligencia artificial, sofisticado y cerrado, lo que casi nunca se consigue (o se quiere conseguir) controlar cuando se trata de imágenes o sonidos en el contexto audiovisual. Lo mismo puede decirse de las otras dos prácticas, cuando se puede jugar con la edad, la discapacidad física o mental, respecto a un colectivo, o cuando, a efectos de identificación, se evalúe la conducta social o las características personales o de su personalidad conocidas o predichas. En este último caso, sorprende que no se contemple, total o parcialmente, la posibilidad de impedir su uso en manos del sector privado cuando pueda dar lugar al mismo tipo de trato perjudicial o desfavorable.
Las limitaciones a la biometría remota “en tiempo real”, en cambio, generan en particular un problema de interpretación de su alcance y contenido, por ejemplo, a la hora de determinar cuándo existe una “amenaza específica, importante e inminente para la vida o la seguridad física de las personas físicas o de un atentado terrorista” —sobre todo en lo que concierne a la interpretación de las condiciones de gravedad y de inminencia—.
Todo lo expuesto pretende remarcar que la inteligencia artificial, amén de generar riesgos para la estabilidad del marco económico, jurídico y social de las relaciones laborales en tanto que sustenta los peldaños del progreso de la digitalización y la automatización de la economía, es un factor de riesgo para la dignidad humana, en función de su uso, de los límites regulatorios que se puedan establecer y del respecto efectivo de estos. Es aquí relevante la capacidad real de impulsar desde las Administraciones Públicas y la sociedad un entorno vigoroso de vigilancia y de control, con alto nivel tecnológico también, para evitar que la inteligencia artificial pueda generar —estén o no prohibidos determinados sistemas de inteligencia artificial— prácticas discriminatorias hacia personas y colectivos, o que pongan a determinadas personas físicas en el trance de sufrir consecuencias personales indebidas por causa de un inadecuado uso —desde la perspectiva de la dignidad humana y de los derechos humanos— de la inteligencia artificial.
En consecuencia, si no en pie contra la digitalización y la automatización, sí conviene estar alerta ante la perspectiva de un uso y abuso de la inteligencia artificial para fines que atenten contra la dignidad humana o redunden en conductas discriminatorias derivadas del funcionamiento de los sistemas de inteligencia artificial, y, consecuentemente, de la definición y empleo de los algoritmos vinculados a los sistemas de inteligencia artificial. Es pertinente, entonces, señalar las dificultades intrínsecas que ello comporta en la práctica. Resulta importante si, en definitiva, se desea respetar en el futuro los derechos humanos y se quiere evitar generar un caldo de cultivo para aproximaciones contrarias al progreso tecnológico y al desarrollo de la inteligencia artificial —si es que no, inclusive, futuras veleidades neoluditas, pese a que estas, a priori, parezcan hoy impensables—.
[1] Ferrer, C., Los destructores de máquina. En homenaje a los luditas, Biblioteca Virtual, Omegalfa, 2013, p. 2 (disponible en: https://omegalfa.es/downloadfile.php?file=libros/los-destructores-de-maquinas-en-homenaje-a-los-luditas.pdf).
[2] Ibid., p. 3.
[3] García-Velasco, C., “El compromiso político como apuesta total por la vida”, introducción a: Ernst Toller, Una juventud en Alemania, Pepitas de Calabaza, Logroño, 2017, p. 24.
[4] Bonet Pérez, Jordi, “Disrupción tecnológica y trabajo: ¿disrupción también en el ámbito de las relaciones laborales?”, mientrastanto.e, n.º 169, junio 2018.
[5] El ejemplo puede ser el de los chalecos amarillos en Francia (Negrón, Marco, “Luditas del siglo XXI”, Tal Cual, 29 de octubre de 2019 (disponible en: https://talcualdigital.com/luditas-del-siglo-xxi-por-marco-negron/).
[6] Humphries, Jane y Schneider, Benjamin, “El trabajo en el siglo XXI”, El Trimestre Económico, vol. LXXXVII, n.º 346, 2020, p. 562.
[7] Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial), y se modifican determinados actos legislativos de la Unión, Documento COM(2021) 206 final, de 21 de abril de 2021.
[8] Por ejemplo, la propuesta del art. 14 establece que los sistemas de inteligencia artificial de alto riesgo “se diseñarán y desarrollarán de modo que puedan ser vigilados de manera efectiva por personas físicas durante el período que estén en uso, lo que incluye dotarlos de una herramienta de interfaz humano-máquina adecuada, entre otras cosas”.
[9] De un lado, cuando ese trato se produzca en contextos sociales que no guarden relación con los contextos donde se generaron o recabaron los datos originalmente, y, del otro, porque resulte “injustificado o desproporcionado con respecto a su comportamiento social o la gravedad de este”.
[10] Que son: la búsqueda selectiva de posibles víctimas concretas de un delito, incluidos menores desaparecidos; la prevención de una amenaza específica, importante e inminente para la vida o la seguridad física de las personas físicas o de un atentado terrorista, y la detección, la localización, la identificación o el enjuiciamiento de la persona que ha cometido o se sospecha que ha cometido alguno de los delitos mencionados en el artículo 2, apartado 2, de la Decisión Marco 2002/584/JAI del Consejo, para el que la normativa en vigor en el Estado miembro implicado imponga una pena o una medida de seguridad privativas de libertad cuya duración máxima sea al menos de tres años, según determine el Derecho de dicho Estado miembro.