Max Fisher. Periodista en The New York Times, especializado en grandes acontecimientos y tendencias mundiales. Formó parte del equipo dedicado a la investigación de redes sociales que fue Pulitzer en 2019.
Avance
A finales de 2018, el autor de este libro visitó la sede central de Facebook con más de 1.400 páginas de documentos internos que ponían al descubierto cómo la mano invisible de la red social establecía los límites de lo aceptable en política y en los discursos para 2.000 millones de usuarios de todo el mundo. Aquel era el resultado de una filtración de un trabajador insatisfecho y probaba la negligencia y los atajos de la compañía para intentar frenar el creciente revuelo internacional que, según él, los productos de la empresa agravaban o incluso provocaban. Tiempo después, el resultado de la investigación de Fisher dio lugar a esta obra que se pregunta no solo cuáles son las consecuencias del uso de las redes sociales, sino del modo en que están concebidas y diseñadas. Las redes del caos trata sobre la odisea de responder a estas cuestiones.
Artículo
Como otras muchas personas, de entrada yo había supuesto que los peligros de las redes sociales provenían sobre todo del mal uso que de ellas hacían personajes malvados —propagandistas, agentes extranjeros o vendedores de noticias falsas— y que, en el peor de los casos, las distintas plataformas eran una vía pasiva por la que discurrían problemas que la sociedad ya tenía de antes. Sin embargo, en casi todos los sitios a los que viajé por mi actividad periodística para informar sobre déspotas, guerras y revueltas de países lejanos, se vinculaban una y otra vez hechos extraños y extremos a las redes sociales. Unos disturbios repentinos, una nueva organización radical o la creencia generalizada en alguna estrambótica conspiración: todo ello tenía un vínculo común […]. Ese patrón mundial parecía indicar algo fundamental de la tecnología, pero nadie era capaz de decirme exactamente por qué estaba sucediendo o qué significaba.
En el otro extremo del mundo, un joven al que llamaré Jacob —empleado de una de las muchas empresas a las que Silicon Valley subcontrata el trabajo sucio— albergaba más o menos las mismas sospechas que yo. Había hecho sonar todas las alarmas que había podido. Sus jefes le habían escuchado con preocupación, decía, incluso con solidaridad. Habían visto las mismas cosas que él. Había algo en el producto que supervisaban que estaba yendo peligrosamente mal […]. Cada día, su equipo revisaba miles de publicaciones de todo el mundo y señalaba todas aquellas que incumplieran una norma o se pasaran de la raya. Él tenía la sensación de que era una tarea agotadora pero necesaria. No obstante, a lo largo de algunos meses de los años 2017 y 2018, se habían dado cuenta de que las publicaciones estaban cada vez más cargadas de odio, de conspiraciones y de extremismo. Y notaban que, cuanto más incendiaria era la publicación, más la difundían las plataformas. Les parecía que había un patrón, algo que se repetía en las decenas de sociedades e idiomas que tenían el encargo de supervisar. Además, creían que su capacidad de frenar el odio y la incitación crecientes se veía limitada por lo mismo que supuestamente tenía que ayudarlos: los montones de reglamentos secretos que dictaban qué podían permitir en las plataformas y que tenían que eliminar […].
El extremismo crece, los controles fallan
Jacob anotó las conclusiones y las preocupaciones de su equipo para enviarlas a instancias superiores. Pasaron meses. El aumento del extremismo en internet no hizo más que empeorar. Él iba todos los días al trabajo y esperaba delante de su ordenador a que llegase una respuesta de la sede central, en los lejanos Estados Unidos, pero nunca llegó. Jacob tuvo una idea. Consistiría en meterse dentro del sistema de seguridad en el trabajo, extraer a escondidas archivos confidenciales y filtrarlos al extranjero, y luego convencer a los medios de que publicasen sus advertencias en su lugar: todo ello con la esperanza de hacer llegar la información a la pantalla de una persona: Mark Zuckerberg, fundador y director ejecutivo de Facebook. Jacob estaba seguro de que la distancia y la burocracia le impedían llegar a las personas responsables. Con que pudiera hablar con ellos, seguro que querrían arreglar las cosas.
Jacob se puso en contacto conmigo por primera vez a principios de 2018. Una serie de artículos míos en los que había investigado el papel de las redes sociales en el aumento de la violencia masiva en lugares como el pequeño país asiático de Sri Lanka le parecieron una confirmación de que los problemas que él había observado en la pantalla eran reales. Y que tenían unas consecuencias cada vez mayores y a veces mortíferas. Pero sabía que su palabra por sí sola no sería suficiente. Tendría que sacar a hurtadillas de los ordenadores de su oficina los reglamentos internos de la empresa y los documentos sobre formación. No sería fácil —las máquinas estaban muy bien protegidas y las oficinas estaban monitorizadas de cerca—, pero era posible: un año antes, alguien había logrado hacer llegar algunos de los archivos a The Guardian y más adelante también se filtraron documentos a Vice News. Jacob creó un programa para sacar los archivos sin ser visto, encriptándolos y eliminando las huellas digitales con las que pudiera encontrarse su rastro o incluso que pudiera conducir hasta el país donde estaban ubicadas sus oficinas. Me envió algunos archivos mediante un servidor seguro. Al cabo de algunas semanas, me subí a un avión para ir a recoger el resto de los archivos y para reunirme con él.
Facebook, al saber lo que había obtenido, me invitó a su elegante sede central y me ofreció la posibilidad de entrevistarme con varios directivos de la empresa […]. Casi cualquier pregunta que formulaba, por sensible que fuese, daba lugar a una respuesta directa y matizada. Cuando un problema estaba por resolver, lo reconocían. Ninguno tuvo que comprobar sus notas para decirme, por ejemplo, cuál era la política de Facebook con respecto a las organizaciones independentistas kurdas o para explicarme sus métodos para elaborar las normas sobre los discursos de odio en tagalo. Me preguntaba: con unos directivos tan meticulosos y ultracualificados, ¿por qué los problemas para los que articulan unas respuestas tan razonadas parecen ir siempre a peor? Cuando organizaciones proderechos humanos alertan a Facebook de un peligro inminente salido de su plataforma, ¿por qué tan a menudo la empresa no actúa? ¿Por qué periodistas como yo, con tan poca capacidad de escudriñar las operaciones de la plataforma y una diminuta parte de su personal o presupuesto, siguen publicando informaciones sobre atrocidades y sectas nacidas en Facebook que parecen cogerlos por sorpresa? Pero, en algún momento de cada entrevista, cuando les preguntaba por los peligros causados no por personajes malvados que hacen un mal uso de la plataforma, sino por la plataforma en sí, era como si se levantase un muro mental […].
Manipular la atención
Dentro de las paredes pintadas de Facebook, el convencimiento de que el producto era algo positivo parecía inquebrantable. El ideal fundamental de Silicon Valley según el cual hacer que la gente pase más y más tiempo conectada a internet enriquecerá su mente y hará del mundo un lugar mejor estaba muy extendido entre los ingenieros que crean y moldean los productos. «A medida que la plataforma llega a más países y más personas, aumentan los riesgos —afirmó una ingeniera veterana sobre el importantísimo canal de noticias de Facebook—. Pero también creo que hay mayores oportunidades para que la gente esté expuesta a nuevas ideas». Y me aseguró que eliminarían cualquier riesgo derivado de la misión de la plataforma de maximizar la participación de los usuarios. Más adelante me enteré de que, poco antes de mi visita, varios investigadores de Facebook —designados por la empresa para estudiar los efectos de su tecnología en respuesta a las sospechas crecientes de que el sitio podía estar empeorando las divisiones políticas en Estados Unidos— habían alertado a nivel interno de que la plataforma estaba haciendo justo aquello de lo que los ejecutivos de la compañía, en nuestras conversaciones, habían hecho caso omiso. «Nuestros algoritmos sacan provecho de la atracción del cerebro humano por la división», alertaron los investigadores en una presentación de 2018 que luego se filtró al Wall Street Journal. De hecho, decía también la presentación, los sistemas de Facebook estaban diseñados de tal forma que ofrecían «un contenido cada vez más divisivo para captar la atención de los usuarios e incrementar el tiempo que estos pasan en la plataforma». Los ejecutivos guardaron el estudio en un cajón y rechazaron gran parte de las recomendaciones que en él se hacían. Esos consejos habrían consistido en modificar los sistemas de promoción que elegían lo que ven los usuarios y podrían haber reducido el tiempo que pasaban conectados. La pregunta que yo había traído a los pasillos de Facebook —¿cuáles son las consecuencias de hacer pasar una porción cada vez mayor de la política, la información y las relaciones sociales humanas a través de unas plataformas de internet diseñadas expresamente para manipular la atención?— era allí un absoluto tabú […].
Enseñando a odiar
En verano de 2020, una auditoría independiente de Facebook —encargada por la compañía ante la presión de organizaciones de derechos civiles— llegó a la conclusión de que la plataforma era todo lo que sus ejecutivos me habían insistido en que no era. Sus políticas permitían una desinformación descontrolada que podía alterar elecciones. Sus algoritmos y sistemas de recomendación estaban «conduciendo a los usuarios hacia cámaras de resonancia en las que se potenciaba el extremismo», lo cual les enseñaba a odiar. Pero quizás lo peor de todo era que el informe concluía que la empresa no entendía cómo sus productos afectaban a sus miles de millones de usuarios.
Sin embargo, había unas pocas personas que sí lo entendían y, bastante antes de que muchos de nosotros estuviéramos preparados para oírlo, intentaron alertarnos. La mayoría empezaron siendo unos verdaderos creyentes obsesionados con la tecnología, algunos formaban parte de Silicon Valley, motivo por el cual precisamente estaban mejor situados para darse cuenta pronto de que algo estaba yendo mal, para investigarlo y evaluar las consecuencias. Pero las empresas que afirmaban que querían entender esas ideas obstaculizaban sus iniciativas, cuestionaban su reputación y ponían en duda sus conclusiones, hasta que en muchos casos las empresas se vieron forzadas a admitir, aunque fuera solo de forma implícita, que quienes habían hecho sonar las alarmas tenían razón desde el principio […].
Se demostró que la creencia popular inicial de que las redes sociales fomentan el sensacionalismo y la ira, aunque era cierta, se quedaba muy corta. Una cantidad cada vez mayor de pruebas, recogidas por muchos académicos, periodistas, informantes y ciudadanos preocupados, hace pensar que sus efectos son mucho más profundos. Esta tecnología ejerce tal influencia en nuestra psicología y nuestra identidad, y es tan omnipresente en nuestras vidas, que cambia nuestra manera de pensar, comportarnos y relacionarnos unos con otros. El efecto, multiplicado por miles de millones de usuarios, ha sido la transformación de la propia sociedad […].
Prólogo extractado del libro Las redes del caos, de Max Fisher, publicado en forma de artículo por cortesía y con autorización de la editorial Península. La imagen que lo ilustra, de uso gratuito bajo la licencia de contenido de Pixabay, se puede encontrar aquí. Su autor es geralt.