Este «modo seguro» («safety mode», en inglés) de Twitter, es una función que bloquea temporalmente (siete días) las cuentas que usen un «lenguaje potencialmente nocivo», como insultos, comentarios odiosos o «menciones repetitivas y no solicitadas».
«Los autores de mensajes considerados nocivos o no solicitados según nuestra tecnología serán automáticamente bloqueados, lo que significa que temporalmente no podrán seguir su cuenta, ver sus mensajes o enviar mensajes directos», explicó Twitter en un comunicado.
La red social declaró que había consultado a expertos en seguridad en internet, en salud mental y en derechos humanos para crear esta herramienta.
Esta nueva funcionalidad había sido previamente utilizada por un reducido número de usuarios, sobre todo mujeres periodistas y otros grupos de personas que sufren a menudo este tipo de abusos.
Al igual que otros gigantes de las redes sociales, Twitter permite a los usuarios señalar publicaciones que consideran odiosas, como los mensajes racistas, homófobos y sexistas. Pero muchos usuarios se quejan desde hace tiempo de los fallos en la política de la empresa, que permiten que los comentarios violentos o discriminatorios sigan siendo visibles en muchos casos.
En Francia, por ejemplo, la plataforma fue denunciada por seis grupos antidiscriminación que la acusan de faltas «persistentes» en el bloqueo de comentarios odiosos. La justicia francesa ordenó en julio a Twitter que comunicara, en un plazo de dos meses, los documentos que explican cómo lucha contra el odio por internet.
El anuncio de Twitter llega varias semanas después de que Instagram (que pertenece a Facebook) desvelara nuevas herramientas para luchar contra contenidos abusivos y racistas, tras una serie de comentarios racistas dirigidos contra los futbolistas de la selección de Inglaterra después de la última Eurocopa.
AFP