Twitter sigue trabajando con funciones que permitan rebajar el nivel de hostilidad de algunos de los tuits que se publican en la red social. La plataforma está probando una nueva herramienta de moderación con la que se quiere advertir a los usuarios que estén a punto de publicar una respuesta que utilice lenguaje identificado como “ofensivo o dañino”.
De momento se trata de un experimento limitado, que se está realizando tan solo entre algunos usuarios de iOS.
Según esta nueva función, el usuario que esté a punto de publicar una respuesta que incluya este lenguaje dañino, recibirá un aviso con el que la red le dará la opción de revisar su respuesta antes de que se publique. Twitter lo ha explicado mediante una publicación en su canal oficial.
Esta no es la primera vez que se prueba una herramienta parecida. Otras plataformas sociales ya cuentan con fórmulas para advertir de los mensajes conflictivos. Por ejemplo, Instagram cuenta con una función que advierte a los usuarios antes de publicar según que contenidos, con un mensaje que alerta de que ese texto “se parece a otros que han sido reportados”.
De momento no se sabe mucho más sobre como funciona la nueva herramienta de moderación de Twitter, aunque es posible que se base en las políticas contra los discursos de odio con los que ya cuenta la plataforma, además del documento interno sobre cómo gestionar cuestiones que van desde las amenazas de violencia y contenido relacionado con terrorismo hasta abuso y acoso.
La red asegura que no eliminará un contenido simplemente porque es ofensivo: “Las personas pueden publicar contenido, incluido contenido potencialmente inflamatorio, siempre y cuando no violen las Reglas de Twitter”, explican desde la compañía. Pero estas reglas permiten establecer bastantes excepciones a lo que se puede publicar y lo que no.
El mensaje, en principio, no pasará de simple advertencia, por lo que la persona implicada puede ignorarlo y seguir adelante con su publicación. Sin embargo, quizás pueda contribuir a que alguno se lo piense dos veces antes de lanzar un mensaje molesto.
Con esta nueva acción, Twitter busca la manera de reducir el lenguaje ofensivo e incendiario que intensifica disputas y broncas en la red social. La red ha estado bajo presión durante mucho tiempo para limpiar contenido odioso y abusivo en su plataforma, que está vigilada por usuarios que marcan y reportan aquellos tuits que violan las reglas y por tecnología.
Fuente: La Vanguardia