Opinión

Redes en la lupa

El odio dispara debates sobre los protocolos de censura de Facebook y Twitter

Con una velocidad de propagación tan eficaz como la del coronavirus, los discursos del odio colonizan las redes y aceleraron en los últimos tiempos las intervenciones de los dos más grandes para eliminar los contenidos xenófobos o intimidatorios. Expertos opinan sobre conveniencias y perjuicios


Con una velocidad de propagación tan eficaz como la del coronavirus, los discursos del odio colonizan las redes y aceleraron en los últimos tiempos las intervenciones de Facebook y Twitter para eliminar los contenidos xenófobos o intimidatorios, desatando un debate acerca de los alcances de la libertad de expresión –y de la potestad de estas compañías para regularla– que en estos días se recalentó a partir de un tuit del presidente Donald Trump que fue censurado parcialmente bajo el argumento de “glorificar la violencia”.

“Ahora se odia más abiertamente”, sostiene la ensayista alemana Carolin Emcke en su libro Contra el odio, donde plantea que el racismo y el rechazo al diferente están en el centro de las sociedades, en parte a raíz de la dinámica que facilitan las redes, una formulación que lleva a preguntarse si esta “socialización” fue generada por las plataformas o si éstas “apenas” propiciaron una vía para que se visibilizaran comportamientos preexistentes.

Las discusiones sobre la escalada de los “haters” no constituyen una secuela inevitable de la pandemia, aunque en la escena actual tensionaron las variables para hacerlas coincidir en una trama donde confluyen el aumento del tráfico en internet por efecto del aislamiento, la multiplicación del malestar generado por las restricciones y los debates acerca si la preservación de la vida justifica los dispositivos que algunos países han puesto en marcha para medir el humor social y controlar la circulación de eventuales contagiados.

Las conveniencias de Facebook son las del mercado

Hace unos días, Facebook dio a conocer un informe donde consigna que en los tres primeros meses del año eliminó unas 9,6 millones de publicaciones con contenido categorizado como discurso de odio, cifra que supone más del doble que la registrada durante el mismo período del año anterior.

No sólo eso: la compañía también divulgó que con la ayuda de inteligencia artificial ya montó una base de datos de 10 mil memes para identificar con mayor precisión la aparición de contenido agraviante.

“Lo importante es tener claro a qué consideran odio, porque esa categoría habilita de inmediato la censura y el silenciamiento. A primera vista, lo que tanto la cuarentena sanitaria como las políticas de uso de Facebook no pueden ocultar es que aquel antiguo sueño de internet como un segundo mundo ideal, diseñado para afianzar la concertación definitiva de la humanidad, ya no existe”, sostiene el escritor y ensayista Nicolás Mavrakis.

“Por supuesto, más allá de este paisaje de fondo, el verdadero problema no es que Facebook censure millones de publicaciones catalogadas como «discursos de odio», sino que confunda al odio con la negatividad, que lejos de significar lo mismo, es nada menos que el primer paso intelectual para poner en marcha al entendimiento”, explica.

Mavrakis, que analizó estas cuestiones en un libro llamado precisamente La utilidad del odio, cita al filósofo coreano Byung-Chul Han, según él quien mejor define el problema en los ecosistemas digitales: “Partiendo de las premisas de Hegel, el punto clave es que al borrar cualquier amenaza de negatividad en las redes como Facebook, es decir, cualquier obstáculo para la positividad constante del «Me gusta», lo que queda en pie es únicamente una sociedad que le cede su capacidad de entendimiento a las conveniencias de Facebook, que no son otras que las conveniencias del mercado”, afirmó.

“Es el mercado, entonces, antes que la convivencia democrática o la fraternidad universal, y claro que desde mucho antes del contexto actual de la cuarentena, lo que encuentra en la negatividad un obstáculo serio para la libre circulación de sus intereses, y por eso Facebook se ocupa de neutralizar cualquier indicio de negatividad, a veces, llamándolo simplemente odio”, analizó.

El discurso de “odio”, el más complicado para regular en Internet

La politóloga y magister en Periodismo Natalia Zuazo plantea en línea con Mavrakis las dificultades para generar un consenso en torno a la definición de “odio” cuando está referido a las intervenciones que tienen lugar en las redes: “El discurso de odio es uno de los más complicados en internet para regular porque no tenemos una definición unívoca.

Según la Comisión Interamericana de Derechos Humanos (CIDH), hay que encontrar un nexo entre ese discurso y una consecuencia generada por él, es decir, ver si ese discurso provocó un daño”. “Es fundamental detectar ese límite para determinar si aquello que se escribió provocó efectivamente una consecuencia, porque si no corremos el riesgo de restringir lo que está contemplado dentro de la libertad de expresión –enfatiza–.

Y además plataformas como Facebook o Twitter no deberían tener lineamientos privados para definir qué es libertad de expresión. Sin embargo, en los hechos, funciona así”, asegura la autora de Las guerras de internet y Los dueños de internet.

Para Zuazo, uno de los elementos más cuestionables del patrullaje que lleva adelante Facebook es que en ningún caso se especifica cuáles son los materiales removidos: “No lo hacen y además siguen las políticas de las plataformas que se basan en la autorregulación, algo así como decir «nosotros hacemos las leyes»”, criticó.

“Y en última instancia, habría que preguntarse si eliminar los discursos ligados al odio contribuye a enfriar la escena social: ¿Tener más contenidos removidos significa algo bueno?

No lo sabemos, porque las reglas las pone Facebook. El otro camino sería que las reglas sean establecidas democráticamente por un grupo de personas afectadas.

“Por ejemplo, si en la Argentina los principales crímenes de odio son los relacionados con la identidad sexual, habría que convocar a las asociaciones de la comunidad LGBT para pensar estos temas”.

Deficiencias inmunológicas subjetivas

“También habría que plantear si con su política de algoritmos que agrupan a los usuarios por patrones de afinidad, las redes no terminan desacostrumbrando a una mayoría al contacto con lo divergente y entonces cuando se producen contrapuntos asumen tan rápidamente las formas del agravio”.

“Sin duda, con esta modalidad las redes generan desacostumbramiento y entonces cuando se produce cualquier contrapunto, se asume que este es una de las formas del agravio.

Diría que al no poder tratar con la negatividad, lo que resta es una sociedad con graves «deficiencias inmunológicas subjetivas»: personas cuyas sensibilidades ya no pueden tratar ni con la más mínima disidencia, y entonces bloquean, silencian o dejan de seguir a quienes los inoportunan pensando distinto”, concluyó Mavrakis.

Comentarios