Hace apenas unos años, las redes sociales eran celebradas por su poderoso efecto democratizador. Estas plataformas -en particular Twitter y Facebook-desempeñaron un papel clave en la Primavera Árabe: al darles voz a los ciudadanos, permitieron que pudieran conectarse para compartir información y organizar manifestaciones pacíficas, sorteando la vigilancia estatal.
Sin embargo, mientras las redes sociales favorecían el desafío a los regímenes autoritarios, sus bajas barreras de acceso hacían posible que grupos terroristas y extremistas (racistas, xenófobos, antisemitas, islamófobos, entre otros) se volcaran a estas plataformas para sumar adhesiones y difundir sus ataques.
La circulación del odio digital, hoy bajo la lupa, devino así en el lado oscuro de aquel efecto democratizador de las redes. El creciente número de ataques contra inmigrantes y otras minorías en diversas partes del mundo despertó nuevas preocupaciones sobre la conexión entre la proliferación del discurso del odio online y los actos violentos.
El último caso registrado fue el tiroteo ocurrido a principios de agosto en El Paso, al oeste de Texas, donde un hombre blanco disparó contra una multitud y mató a veintidós personas. El ataque tuvo una extraña similitud con las masacres recientes en una sinagoga en Poway, California, y dos mezquitas en Christchurch, Nueva Zelanda: antes de perpetrar sus matanzas, los atacantes buscaron inspiración y compartieron sus manifiestos llenos de resentimiento en 8chan, una suerte red social conocida como «el refugio de Internet», dada la dificultad de controlar los contenidos compartidos por sus usuarios anónimos.
Ante la conmoción provocada por esta ola de ataques, la semana pasada un grupo de líderes de Silicon Valley, agrupados bajo el nombre Build Tech We Trust (Construyamos tecnología en la que confiemos), les pidió a sus colegas de la industria que detuvieran de algún modo la propagación del discurso violento en sus plataformas. «Las plataformas tecnológicas nos prometieron conexión, acceso y democracia, pero en cambio están radicalizando y fragmentando comunidades al proporcionar una capacidad sin precedentes para coordinar ataques y amplificar el odio. Creemos que es momento de actuar contra el odio y el terrorismo ahora mismo», afirmaron a través de una carta abierta.
De hecho, las plataformas digitales se ven sometidas a una presión política cada vez mayor para aumentar los controles y evitar la circulación de contenido extremista que pueda incitar a la violencia. Esto, del otro lado, despierta la desconfianza de muchos expertos, preocupados por los posibles efectos colaterales de una regulación más rigurosa. Hoy la forma de combatir este virus tan particular de la Web es motivo de debate. La cuestión es cómo detener el discurso de odio sin que se vean afectadas la libertad de expresión ni la privacidad de los usuarios, entre otros derechos.
Manifiesto online
Tras la matanza de El Paso, se multiplicaron los pedidos para cerrar el sitio web 8chan, donde el atacante, minutos antes de actuar, publicó un «manifiesto» racista en el que advertía sobre una «invasión hispana de Texas» y elogiaba al atacante de Christchurch. Al mismo tiempo, se reabrió el debate sobre la responsabilidad que le cabe a las redes sociales en estos sucesos funestos.
Para Silvio Waisbord, profesor en la Escuela de Medios y Asuntos Públicos de la Universidad George Washington, no hay duda de que las empresas de redes sociales tienen una enorme responsabilidad en las nuevas formas de propaganda del odio. «Cuando las plataformas sociales ajustan sus algoritmos para intensificar contactos con preferencias estrechas para fines comerciales, también fortalecen grupos homogéneos de pensamiento, incluidos aquellos que llaman a eliminar a quienes son diferentes por religión, color de piel, nacionalidad, etnia. Ahí se encuentran y se reconocen los fanáticos unidos por la intolerancia», explica el académico.
Sin embargo, Waisbord advierte que es equivocado pensar que las redes sociales son los únicos responsables de los ataques de odio. Apunta, además, al discurso incendiario de ciertos líderes políticos y al rol de los medios, muchos de los cuales -afirma- favorecen la circulación del odio. Todo eso es parte del complejo sistema de desinformación e intolerancia que nos rodea. «Gran parte de la intolerancia que circula en las redes sociales es producto de los discursos de políticos y de información de medios ideológicamente afines. Estas son las usinas diarias de la intolerancia que encuentran cauce en las redes. El flujo del odio no es solo un problema de estas plataformas, sino también de una cadena de actores que normalizan este discurso violento», dice Waisbord desde Washington.
Entonces, ¿cómo abordar el problema? Para algunos, la respuesta es cerrar los sitios web ofensivos y expulsar a los extremistas de las redes. Tal medida es una respuesta directa, pero no necesariamente efectiva. La creencia de que la censura puede erradicar el odio y resolver los problemas de extremismo profundamente arraigados en ciertos sectores de la sociedad moderna es un error, señalan muchos expertos.
Milton Mueller, profesor en el Instituto de Tecnología de Georgia, afirma que la magnitud de la escala de las redes sociales hace que las interacciones humanas sean «hipertransparentes». Así, el «pánico moral» que esto despierta podría derivar en una regulación perjudicial, que podría amenazar la libertad de expresión y la democracia. «Uno de los aspectos más destructivos del pánico moral es que con frecuencia dirigen la indignación a un solo objetivo fácilmente identificable, cuando los problemas reales tienen raíces más complejas», apunta Mueller, que además dirige el Proyecto de Gobernanza de Internet (IGP, por sus siglas en inglés).
Las redes, un espejo
Según Mueller, la «hipertransparencia» lleva a pensar que las redes sociales causan los problemas que ponen de manifiesto y, por tanto, que la sociedad mejoraría mediante la regulación de los intermediarios que facilitan actividades no deseadas. «No es una exageración decir que estamos culpando al espejo por lo que vemos en él», grafica.
«Las redes no causan el discurso del odio, solo lo difunden», dice Eugenia Mitchelstein, y aclara que no existen estudios concluyentes sobre la relación entre discurso del odio online y violencia real. «Si no fueran las redes sociales, circularía de otra manera. Tal vez lo que cambie es que, si antes quienes tenían ideas extremistas se sentían solos y aislados, ahora en las redes encuentren más rápido su grupo de pertenencia. Sin embargo, no creo que las redes conviertan a los no discriminadores (que son la mayoría de sus usuarios) en odiadores», opina Mitchelstein, que codirige el Centro de Estudios sobre Medios y Sociedad (MESO) de la Universidad de San Andrés.
«Odio hubo siempre y maneras de difundirlo también», dice Mitchelstein. Para graficar esta idea recurre a ciertos hechos históricos: «Cuando en 1994 los extremistas hutus mataron a un millón de tutsis en Ruanda, no había redes sociales. Hitler no necesitó Facebook para llevar adelante su proyecto de genocidio. Las guerras de religión en los siglos XVI y XVII en Europa no usaron Twitter. Sin embargo, Hitler difundió su mensaje de odio en el cine y la radio, los hutus usaron la radio para difundir sus ideas genocidas, y los protestantes y católicos en Europa usaron la imprenta, recientemente creada, para difundir el odio al otro».
¿Cuál ha sido la respuesta de las empresas a la hora de regular el fenómeno? ¿Qué iniciativas han aplicado los países para combatir esta problemática?
Hasta el momento, la respuesta ha sido desigual, y la tarea de decidir qué censurar, y cómo hacerlo, recayó en gran medida en el puñado de grandes corporaciones que controlan las plataformas. Sin embargo, ante la creciente ola de ataques, la intervención de los gobiernos en este asunto es cada vez mayor.
En 2016, las redes sociales sufrieron fuertes críticas por su pasividad ante la propagación de fake news y mensajes de odio durante la victoria de Donald Trump en Estados Unidos y el triunfo del Brexit en Gran Bretaña. Ante esto, las tecnológicas -comenzando por Facebook– comenzaron a reconocer su función social. Sin embargo, como empresas privadas, optaron por la autorregulación, sin dar a conocer los detalles de los procesos de control de contenido que aplican.
Facebook en la mira
Mientras tanto, Facebook comenzaba a ser investigado tras haber sido utilizado por oficiales del Ejército de Myanmar durante una campaña de limpieza étnica. «Me temo que Facebook se ha convertido en un monstruo, y no en lo que originalmente quiso ser», dijo Yanghee Lee, investigadora de la ONU para Myanmar, tras asegurar que la plataforma había jugado un papel en la difusión del discurso discriminatorio contra la minoría musulmana rohingya.
La presión política ante la evidencia forzó a los gigantes de Internet a reconocer, tardíamente, el problema. Ante la proliferación de mensajes de odio y fake news, las empresas de Silicon Valley, que venían abrazando una visión maximalista de la «libertad de expresión», comenzaron a adoptar un enfoque más proactivo. Prometieron limpiar sus sitios de contenidos nocivos, pero hasta el momento no han aportado detalles sobre los términos de uso. Más bien, se limitan a compartir informes sin demasiadas precisiones sobre cómo identifican y retiran de sus plataformas ciertas publicaciones.
Las acciones de estas empresas están al mismo tiempo condicionadas por las leyes nacionales. En el caso de Estados Unidos, es difícil regular las opiniones, incluso las extremas, debido a que las interpretaciones más liberales de la Primera Enmienda de la Corte Suprema conceden amplio margen de tolerancia, limitando la posibilidad de intervención por parte del gobierno.
Esto es diferente en la Unión Europea, donde ciertas formas del discurso del odio están legalmente sujetas a regulación.
La reacción contra los millones de migrantes y refugiados de mayoría musulmana que llegaron a Europa en los últimos años hizo que la prevención de la incitación a la violencia fuera un tema particularmente sensible en la UE. Sus miembros han estado más dispuestos a regular, especialmente países como Alemania, Francia y el Reino Unido.
Alemania aprobó en 2017 una ley que exige que las compañías eliminaran contenidos racistas o difamatorios dentro de las 24 horas de su aparición en línea.
Sanciones
En el caso de Francia, en parte inspirado por el precedente alemán, la Asamblea Nacional aprobó el mes pasado una ley similar, que establece sanciones de hasta 1,25 millones de euros en caso de infracción grave para las empresas tecnológicas.
Previamente, el presidente Emmanuel Macron había recibido a Mark Zuckerberg, CEO de Facebook, en el Palacio del Elíseo con el objetivo de abordar estrategias para luchar contra los contenidos violentos y de odio online.
En ese encuentro, también analizaron un proyecto de ley a nivel europeo que establecería que los algoritmos detrás de los filtros automatizados usados para moderar los contenidos puedan ser objeto de revisión externa. «La insuficiencia y la falta de credibilidad de las iniciativas de autorregulación desarrolladas por las plataformas más grandes justifican una intervención pública dirigida a responsabilizarlas, que alcance un equilibrio entre su libertad y los intereses del Estado», sostiene el informe elaborado por funcionarios franceses. Propone también la creación de una autoridad administrativa independiente en cada país del bloque, encargada de hacer respetar un principio de «transparencia» sobre cómo las redes sociales jerarquizan y moderan los contenidos publicados por sus usuarios.
Los defensores de estas regulaciones dicen que se tratan de propuestas para evitar que las redes se conviertan en un caldo de cultivo del odio. En la otra vereda, los críticos, incluidos algunos think tanks, afirman que estas medidas amenazan los principios de un Internet libre y abierto. Cuando ocurren tragedias como las de El Paso, el ímpetu para responder es tan grande que puede conducir a resultados no deseados, advierten.
Sobre esto alertan expertos como Helen Margetts, investigadora del Instituto de Internet de Oxford: «Las plataformas de redes sociales constituyen la base de nuestro entorno social. Sin embargo, los encargados de formular políticas prestan una atención increíblemente escasa a su protección hasta que ocurre algún tipo de desastre del que se apresuran a culpar a Internet», sostiene.
En este sentido, al producirse masacres como la Christchurch, que fue transmitida en vivo por Facebook, se generan picos de reacción punitivista que derivan en propuestas de regulación estricta por parte de los gobiernos. «Esta forma de regulación es como matar una hormiga con la pata de un elefante: se regula el contenido, pero al mismo tiempo se da de baja información que no debe ser censurada. Esto es preocupante», alerta Natalia Zuazo, autora de Los dueños de Internet y consultora en comunicación política digital. «Mientras no se apunte a resolver los problemas reales, lo único que hará la tecnología es profundizarlos. Hay que atacar las causas del odio en el mundo real, y no limitarse a regular Internet», afirma.
Ante el avance de regulaciones más estrictas, Rebecca Mackinnon, una de las principales pensadoras y activistas de la era digital, autora del libro Consenso de los conectados, sostiene que la libertad de Internet está amenazada. «No solo por gobiernos autoritarios -aclara-, sino también por compañías occidentales y políticos elegidos democráticamente que no entienden el impacto global de sus acciones».
Gobernanza rota
«Mejorar la gobernanza y la responsabilidad de las plataformas tecnológicas es necesario, pero no suficiente», dice Mackinnon. Para ella, las regulaciones más agresivas no lograrán su objetivo de eliminar la verdadera fuente de violencia. «El mayor problema es que la gobernanza está rota: ni la política ni la economía están sirviendo bien a la mayoría de las personas. El mundo parece estar en un círculo de retroalimentación negativa: dictadores, demagogos y extremistas violentos están utilizando las herramientas de las plataformas digitales para lograr sus objetivos», concluye la experta.
Consultado sobre en qué actores debe recaer la responsabilidad del contenido que forma parte del discurso online, Silvio Waisbord sostiene: «Los gobiernos tienen que trabajar con las empresas, cuyo sistema de control debe ser más abierto en tanto desempeñan, quieran o no, una función pública vital. Mantener una balance entre expresión y censura es fundamental. Hay que patrullar los contenidos, actuar, informar a la sociedad lo que se hace, no mantenerlo como algo oculto».
En esta línea, David Kaye, relator especial de la ONU sobre libertad de expresión, opina que las reglas de expresión para el espacio público deben ser elaboradas por comunidades políticas relevantes, no por empresas privadas que carecen de responsabilidad y supervisión democráticas. «Si se dejan solas, las empresas obtendrán un poder cada vez mayor sobre la expresión en la esfera pública», advierte en su libro Políticas del discurso: la pelea global para gobernar Internet.
En última instancia, la respuesta sobre quién ha de estar a cargo de la regulación no debería dejar al margen al público y los usuarios. Solo así se podría recuperar parte de la promesa original del espacio democrático que ofreció Internet.
Fuente: Guillermo Borella, La Nación