Compartir:
Las redes sociales como Facebook nacieron con la idea de hacer un mundo más abierto y dar a las personas el poder de compartir. Han pasado 15 años desde la fundación de esta red social, y algunos de sus empleados se han marchado de la compañía por lo que consideran una traición al sueño de lograr auténtica libertad de expresión. La revista Quilette ha iniciado una serie de artículos bajo el nombre ‘¿Quién controla la plataforma?‘ en los que pretenden que gente que esté dentro de los negocios multimedia explique cómo sienten que se vive en ellos la libertad de expresión.

Hacia el código de ‘hate speech’
En 2013 desde Facebook se prohibía ‘contenido destinado a ser directamente hiriente, pero se permite contenido que sea ofensivo o controvertido’. En 2016, con Trump como candidato, la mayoría de los trabajadores de Facebook eran demócratas, y en las oficinas campaban pósters de Obama. También abundaban las causas (y los enfoques) de lo que en EEUU se denomina izquierda (desde #RESIST hasta #METOO). En las reuniones se planteaba qué hacer en favor de quienes se sentían afectados por la presidencia de Trump o por qué no se había echado de la junta directiva a Peter Thiel, quien se declaraba a favor de Trump. No había lugar para el disenso: cuando algunos trabajadores colgaron carteles apoyando la candidatura de Trump los carteles fueron arrancados. O se expulsó a Palmer Luckey, fundador de Oculus VR (empresa comprada por Facebook por millares de millones de dólares) por donar 10.000$ para anuncios contra Hillary.
¿Cuáles son los problemas de las políticas de lenguaje de odio?
Primero, cómo distinguir lo que es lenguaje de odio de lo que no lo es. El odio es un sentimiento, y tratar de legislar el nivel de sentimiento de alguien parece complicado: ¿quién conoce la intención del otro? En segundo lugar, algunos piensan que basta con brindar protección a un determinado número de características. ¿Pero por qué esas? ¿Y por qué en EEUU hay 9, en California 12, en Gran Bretaña 10 y en Facebook 11 –e internamente 17–? ¿Quién pone los límites? ¿Y no es limitar un modo de censura? Tercero: ¿Qué es ofender? ¿Un acto que realiza el ofensor, o lo que siente el que se declara ‘ofendido’? ¿Hay que pedir disculpas porque a alguien le ofenda algo que decimos, aunque no tengamos intención de ofender ni nos parezca ofensivo lo dicho? ¿Debe mandar lo subjetivo sobre lo objetivo? Cuarto: Además, prohibir la controversia, ¿no es un modo directo de matar la discusión entre ideas? ¿Qué hubiera pasado si se hubiera prohibido discutir contra el geocentrismo porque a muchos les resultaba un tema ofensivo? ¿O cómo defenderán las futuras generaciones la crítica al racismo si nunca han tenido que pensar una argumentación racional para hacerlo porque era un ‘tema prohibido’ ya que el racismo genera odios?
Conclusiones
¿Por qué usar códigos de ‘hate speech’ –se pregunta Amerige– cuando podría bastar con leyes contra el acoso que ya se usan para prohibir amenazas, intimidaciones o incitación a la violencia? Es verdad que Facebook es una plataforma privada, no una ‘plaza pública’. Tienen derecho a decidir qué no les gusta que esté en sus páginas. No aplican la misma censura que podría aplicar un gobierno (no van contra la 1ª Enmienda). Si sus regulaciones acaban bloqueando a un buen número de usuarios lo más probable es que estos se acerquen a la competencia, o que se abran nuevas redes donde la posibilidad de disentir sea mayor (por ejemplo, gab). Amerige recuerda que estamos todavía en el nacimiento de estas redes sociales. Y aboga por usar un pensamiento con fundamentos, no por conformarse con decisiones en caliente o pragmáticas. Por eso, plataformas como Facebook deberían preguntarse: «¿Cuál es nuestro papel en la defensa de la libertad de expresión? ¿Debe nuestro estilo de gobierno limitarse a ‘prohibir la entrada a los malos’?Compartir: