Tiempo de lectura: 4 min. Las redes sociales como Facebook nacieron con la idea de hacer un mundo más abierto y dar a las personas el poder de compartir. Han pasado 15 años desde la fundación de esta red social, y algunos de sus empleados se han marchado de la compañía por lo que consideran una traición al sueño de lograr auténtica libertad de expresión. La revista Quilette ha iniciado una serie de artículos bajo el nombre ‘¿Quién controla la plataforma?‘ en los que pretenden que gente que esté dentro de los negocios multimedia explique cómo sienten que se vive en ellos la libertad de expresión.
Iconos de Facebook
No todos los iconos son ‘me gusta’. Foto Shutterstock
Brian Amerige, antiguo empleado de Facebook, escribió un texto sobre la falta de diversidad política en su empresa. Aunque iba dirigido a sus colegas, de algún modo se filtro al New York Times. Entre otras cosas, esa filtración le costó su puesto de trabajo. En el primer artículo de la serie de Quilette desarrolla su punto de vista sobre el problema.

Hacia el código de ‘hate speech’

En 2013 desde Facebook se prohibía ‘contenido destinado a ser directamente hiriente, pero se permite contenido que sea ofensivo o controvertido’. En 2016, con Trump como candidato, la mayoría de los trabajadores de Facebook eran demócratas, y en las oficinas campaban pósters de Obama. También abundaban las causas (y los enfoques) de lo que en EEUU se denomina izquierda (desde #RESIST hasta #METOO). En las reuniones se planteaba qué hacer en favor de quienes se sentían afectados por la presidencia de Trump o por qué no se había echado de la junta directiva a Peter Thiel, quien se declaraba a favor de Trump. No había lugar para el disenso: cuando algunos trabajadores colgaron carteles apoyando la candidatura de Trump los carteles fueron arrancados. O se expulsó a Palmer Luckey, fundador de Oculus VR (empresa comprada por Facebook por millares de millones de dólares) por donar 10.000$ para anuncios contra Hillary.
Cabecera de Quillette
Y entonces se publicaron las guías de Facebook contra el hate–speech . Cualquier disenso con esa política era calificado como ‘siembra de odio’. Se sacrificó la libertad de expresión a cambio de proteger a la gente: los disidentes de la política oficial no se atrevían a hablar por miedo a ser echados de la empresa. ¿Cómo define Facebook el lenguaje de odio? «Un ataque directo basado en lo que llamamos características protegidas –raza, etnia, origen nacional, afiliación religiosa, orientación sexual, casta, sexo, identidad de género, una enfermedad importante o una discapacidad–. Definimos ataque como lenguaje violento o deshumanizador, o llamadas a la exclusión o a la segregación«. El problema principal es la definición de ataque: bastaría con decir algo que no te guste de alguna categoría protegida (por ejemplo, ‘No me gustan los musulmanes que creen en la ley de la Sharia’). O con aplicar alguna forma de juicio moral (‘Los musulmanes que aplican la mutación genital son unos bárbaros’).

¿Cuáles son los problemas de las políticas de lenguaje de odio?

Primero, cómo distinguir lo que es lenguaje de odio de lo que no lo es. El odio es un sentimiento, y tratar de legislar el nivel de sentimiento de alguien parece complicado: ¿quién conoce la intención del otro? En segundo lugar, algunos piensan que basta con brindar protección a un determinado número de características. ¿Pero por qué esas? ¿Y por qué en EEUU hay 9, en California 12, en Gran Bretaña 10 y en Facebook 11 –e internamente 17–? ¿Quién pone los límites? ¿Y no es limitar un modo de censura? Tercero: ¿Qué es ofender? ¿Un acto que realiza el ofensor, o lo que siente el que se declara ‘ofendido’? ¿Hay que pedir disculpas porque a alguien le ofenda algo que decimos, aunque no tengamos intención de ofender ni nos parezca ofensivo lo dicho? ¿Debe mandar lo subjetivo sobre lo objetivo? Cuarto: Además, prohibir la controversia, ¿no es un modo directo de matar la discusión entre ideas? ¿Qué hubiera pasado si se hubiera prohibido discutir contra el geocentrismo porque a muchos les resultaba un tema ofensivo? ¿O cómo defenderán las futuras generaciones la crítica al racismo si nunca han tenido que pensar una argumentación racional para hacerlo porque era un ‘tema prohibido’ ya que el racismo genera odios?
Algunos empleados presentan sus quejas (foto del autor en Quillette)
En Facebook 8.000 empleados moderan los textos que pueden vulnerar el código contra el ‘lenguaje de odio’. Sin especial formación intelectual (quitando el estudio de las leyes internas de la compañía), cuentan con unos 10 segundos para decidir sobre la ortodoxia de cada comentario que deben moderar. No parecen las mejores condiciones para un buen planteamiento de pensamiento crítico. Y la moderación no parece posible que se pueda hacer a través de Inteligencia Artificial: moderar es una actividad que necesita de contexto y de la prudencia del juicio de una persona.

Conclusiones

¿Por qué usar códigos de ‘hate speech’ –se pregunta Amerige– cuando podría bastar con leyes contra el acoso que ya se usan para prohibir amenazas, intimidaciones o incitación a la violencia? Es verdad que Facebook es una plataforma privada, no una ‘plaza pública’. Tienen derecho a decidir qué no les gusta que esté en sus páginas. No aplican la misma censura que podría aplicar un gobierno (no van contra la 1ª Enmienda). Si sus regulaciones acaban bloqueando a un buen número de usuarios lo más probable es que estos se acerquen a la competencia, o que se abran nuevas redes donde la posibilidad de disentir sea mayor (por ejemplo, gab). Amerige recuerda que estamos todavía en el nacimiento de estas redes sociales. Y aboga por usar un pensamiento con fundamentos, no por conformarse con decisiones en caliente o pragmáticas. Por eso, plataformas como Facebook deberían preguntarse: «¿Cuál es nuestro papel en la defensa de la libertad de expresión? ¿Debe nuestro estilo de gobierno limitarse a ‘prohibir la entrada a los malos’?
Doctor en Filosofía. Universidad Francisco de Vitoria. Madrid.