Las redes malditas (XII)

 

LAS REDES MALDITAS (XII)

 

Siempre que ha habido una epoca democrática, ha estado gobernada por unos guardianes del acceso. Los establishments de los partidos dictan los programas y seleccionan quién sale en las papeletas. Los establishments mediáticos controlan quién tiene cuota de pantalla y quién no, a quien se le presenta como aceptable y a quién no. Las organizaciones empresariales y los grupos de intereses reparten la financiación que permite ganar elecciones. Las redes sociales, entre otros factores, socavaron el poder de esos guardianes del acceso. Por un coste cero, los candidatos podían armar sus propios mensajes públicos, su organización, sus imperios de captación de fondos y de este modo podían prescindir de los guardianes. Los establishments siguen teniendo influencia, pero, para bien o para mal, su control sobre la democracia es historia.

 

Silicon Valley, por supuesto, esperaba hacer justo eso. Al permitir que los usuarios se expresasen de forma directa y masiva, en lugar de hacerlo a través de unos intermediarios controlados por unos pocos elegidos esperamos que los Gobiernos se vuelvan más sensibles a la opinión de los ciudadanos. Pero, en la práctica, las redes sociales no abolieron los establishments, sino que los sustituyeron. Sus algoritmos e incentivos ahora actuaban como guardianes del acceso y determinaban quién tenía protagonismo y quién se hundía. Y eso lo hacían basándose no en la popularidad sino en la participación, lo que llevaba a que candidatos marginales obtuvieran mejores resultados.

 

La nueva democracia de las redes sociales generaba mucho caos, pero, extrañamente pocos resultados.

 

La frecuencia de los movimientos de protesta masivos iba en aumento en todo el mundo desde los años cincuenta y en los últimos tiempos se había acelerado. Entre la década del año 2000 y la del 2010, en promedio los episodios por año se habían disparado un 50%. Su índice de éxito también se había incrementado, año tras año, durante décadas. En torno al año 2000, un 70% de los movimientos de protesta que reclamaban cambios sistémicos alcanzaban el éxito. Pero luego, de repente, esa tendencia se invirtió. Los movimientos empezaron a fracasar, al tiempo que se volvían más frecuentes. Ahora sólo terminaban con éxito un 30% de los movimiento0s de masas. Casi todos los meses en cualquier país estallaban protestas a escala nacional. Muchas a una escala que excedía los movimientos más transformadores del siglo XX. Y la mayoría de ellos terminaban apagándose.

 

Las redes sociales facilitan a los activistas la organización de manifestaciones y la rápida captación de seguidores en unas cantidades antes impensables, pero en realidad eso podía ser un lastre. Las redes sociales, aunque de entrada se consideraron una fuerza que favorecía la liberación, en realidad dan ventaja a la represión en la era digital mucho más que a la movilización, Los dictadores habían aprendido a aprovecharlas a su favor, empleando sus mejores recursos para inundar las plataformas de desinformación y propaganda.

 

Las redes sociales hacen posible que las protestas se salten muchos pasos y ponen más cuerpos en la calle más deprisa. Eso puede dar a la gente una falsa sensación de confianza, porque hay un compromiso menor. Sin la infraestructura subyacente, los movimiento0s hechos en las redes sociales son menos capaces de organizar unas reclamaciones coherentes, coordinarse o actuar siguiendo una estrategia. Y alejar la energía popular de la forma más exigente de organización impide que surjan movimientos tradicionales. Eso era lo que había prometido Zuckerberg: movimientos ciudadanos más grandes y sin líderes. Pero facebook , como los demás grandes de las redes sociales, se había convertido en una institución consolidada por derecho propio. Y al igual que la mayor parte de los guardianes del acceso, tendía a proteger el establishment y el statu quo del que dependía para mantener su poder.

 

En 2016 extrabajadores de Facebook de forma natural eliminaban noticias conservadoras.

 

Este es un caso infrecuente en que Facebook hizo todo lo que más adelante expertos y organizaciones digitales le pedirían que hiciera. Imponer supervisión humana sobre sus algoritmos. Privilegiar la verdad y la credibilidad antes que la viralidad y la participación. Comprobando de forma ocasional los peores impulsos de su sistema, incluso de sus usuarios.

 

Después de las elecciones, las grandes plataformas de redes sociales habían promoci0nado contenido falso y polarizador que había favorecido a Trump-parte de él con apoyo de Rusia-.

 

Zuckerberg y otros directores de empresas tecnológicas adoptaron la postura de “director ejecutivo con actitud bélica”. Si los organismos reguladores no se aclaran o el mercado se hunde las empresas necesitan un líder que se salte el protocolo para ganar, que utilice los insultos con propósito, que sea completamente intolerante con los empleados que se alejen de la estrategia corporativa, que ni permita la creación de consensos ni tolere los desacuerdos y que averguence a los trabajado0res delante de sus compañeros para dejar claro un argumento.

 

El concepto de director ejecutivo con actitud bélica convirtió ese arquetipo en una filosofía empresarial. Unos programadores que creaban una aplicación móvil o un comercio electrónico debían ejercer el poder exactamente como las estrellas del rock iconoclastas que creían ser. Forzando lo mismo que los directores ejecutivos tecnológicos harían con los empleados y ciudadanos que estaban perdidos sin su liderazgo. Era la clase de soberbia que podía conducir a un desarrollador web que había dejado la universidad a llegar a la conclusión de que tenía lo necesario para dictar los términos de las relaciones humanas por todo el mundo, y que cualquier persona lo bastante anticuada para cuestionar eso era un esclavo que no lo pillaba. Ser un director ejecutivo con actitud bélica también proporcionaba una especie de cobertura moral. Si había que destruir a los competidores, si los trabajadores ponían objeciones éticas o los medios te acusaban de ser complice de la destrucción del tejido social, era porque no entendían que estábamos en guerra.

 

Destacados inversores de capital riesgo anunciaron que Silicon Valley estaba en guerra contra un sector mediático nacional deshonesto que quería castigarlos por su éxito.

 

FAcebook anunció que permitiría que los políticos mintiesen en la plataforma y que les concedería una especial flexibilidad con respecto a los discursos de odio, unas normas que parecían escritas para Trump y sus aliados.

 

Esa clase de conciliación con dirigentes políticos parecía ser una estrategia mundial.

 

La compañía también anunció ese año que Facebook dejaría de revisar la veracidad o la precisión de los anuncios políticos. Solo se eliminarían aquellos que infringiesen de forma extrema las normas, como los que llamasen a la violencia. Trump, que había destinado cantidades generosas de dinero a Facebook antes de eso, fue el mayor beneficiario, así como cualquier persona como él.

 

Facebook estaba suspendiendo el examen clave que va a determinar si algún día pondrá de veras a la sociedad y a la democracia por delante de los bbeneficios y la tecnología.

 

Cuanto más complejas se volvían las reglas y los principios que los guiaban más difícil era implementarlas por medio de moderadores, sobre todo debido a los cortísimos plazos que se daban a los moderadores para tomar decisiones. “Cada vez que introducimos matices en nuestras normas políticas, eso hace que nos cueste menos aplicarlas de un modo sistemático y adecuado en todo el mundo. Existe una verdadera tensión entre querer contar con unos matices que contemplen todas las situaciones y querer disponer de una serie de políticas que podamos aplicar con precisión y que podamos explicar con claridad”.

 

Mientras ellos se preocupaban por problemas como los discursos de odio contra los refugiados o la desinformación en elecciones sensibles, los ingenieros de la sala de al lado maximizaban la participación de los usuarios de formas que, casi de manera inevitable, empeoraban esos problemas.

 

En 2019 dijeron: “Los mecanismos de nuestra plataforma no son neutros”.

 

Los mecanismos de nuestro producto principal-como la viralidad, las recomendaciones y la optimización para lograr una buena participación- explican en un porcentaje significativo porqué los discursos del odio y la desinformación aparecen en la plataforma. La compañía estaba promoviendo de forma activa(aunque no necesariamente consciente) esa clase de actividades.

 

En el fondo, unir las informaciones y las relaciones sociales bajo el control de unas compañías que aspiran a la maximización de los beneficios estaba reñido con el bien común.

 

2018 y 2019 fue tiempo bien empleado. Ahora esa era la nueva idea de moda de Silicon Valley. Facebook, Google, Apple y otras empresas introdujeron nuevas funciones para monitorizar y gestionar el tiempo de pantalla de los usuarios. Era una especie de renovación de su imagen: hemos aprendido de nuestros pecados (que hemos reducido oportunamente al concepto “demasiado tiempo de pantalla”), hemos experimentado un gran despertar y ahora somos los defensores

Share