Un informe de Amnistía Internacional detalla el papel fundamental que tuvo Meta Platforms, Inc. (anteriormente Facebook) en la violencia perpetrada contra la minoría rohinyá en Myanmar en 2017. La investigación revela que los algoritmos de la red social amplificaron contenidos que incitaban al odio y la violencia contra esta comunidad musulmana, contribuyendo así a las graves violaciones de derechos humanos cometidas por las fuerzas de seguridad de Myanmar.
El informe, titulado La atrocidad social: Meta y el derecho a un recurso para la comunidad rohinyá, documenta cómo en los años previos a la crisis humanitaria de 2017 los discursos de odio contra los rohinyás proliferaron sin control en Facebook. Esto ocurrió a pesar de las reiteradas advertencias que recibió la empresa por parte de activistas birmanos sobre el peligro que esto representaba. «Los algoritmos de Meta amplificaron y promovieron contenidos que incitaban a la violencia, el odio y la discriminación de la población rohinyá, avivando el fuego de una discriminación histórica y aumentando sustancialmente el riesgo de un estallido de violencia masiva», establece el informe. En agosto de ese año, el ejército de Myanmar lanzó una campaña de limpieza étnica contra los rohinyás en el estado de Rakáin que incluyó miles de asesinatos, violaciones masivas, tortura y la quema de aldeas enteras. Más de 700 mil rohinyás huyeron a Bangladesh.
Una misión investigadora de la ONU llegó a la conclusión en 2018 de que el papel de Facebook en alimentar el odio contra los rohinyás antes y durante la crisis fue «considerable».
El informe de Amnistía revela que, ya en 2014, grupos birmanos de derechos humanos advirtieron directamente a Meta sobre el peligro de que su plataforma contribuyera a un genocidio en el país. Sin embargo, la empresa no escuchó estos llamados y no invirtió los recursos necesarios para moderar eficazmente el contenido en idioma birmano. «En los meses y años que desembocaron en las atrocidades de 2017 y cuando se cometían éstas, Facebook en Myanmar se convirtió en una cámara de resonancia de contenido virulento antirrohinyá», afirma el documento. Incluso cuando las propias víctimas rohinyás intentaban denunciar publicaciones de odio, la empresa no hacía cumplir sus normas comunitarias sobre la eliminación de contenidos peligrosos. «Los algoritmos de Meta contribuyeron directamente al daño al amplificar contenido dañino antirrohinyá que incluía apología del odio contra la población rohinyá», concluye Amnistía Internacional.
Pese a esto, la multinacional tecnológica se ha negado hasta ahora a proporcionar ningún tipo de reparación a las víctimas rohinyás. En febrero de este año, Meta rechazó una petición de la comunidad refugiada en Bangladesh que solicitaba 1 millón de dólares para financiar proyectos educativos en los campamentos donde viven desde 2017. «Facebook no participa directamente en actividades filantrópicas», fue la respuesta de la empresa a esta modesta solicitud que representa apenas el 0.002% de las ganancias que tuvo Meta en 2021. Actualmente, la compañía enfrenta al menos tres demandas judiciales en Reino Unido y Estados Unidos por parte de sobrevivientes rohinyás que exigen compensación por el daño sufrido.
El activista rohinyá Sawyeddollah, de 21 años y refugiado en Bangladesh, afirmó a Amnistía International: «Creo de verdad que merecemos una reparación de Facebook […] Facebook no puede hacer que nuestras vidas sean como antes, eso sólo podemos hacerlo nosotros. Pero lo que necesitamos para hacer eso es educación».
En su informe, Amnistía concluye: «Meta contribuyó sustancialmente a impactos negativos en los derechos humanos sufridos por la población rohinyá y tiene la responsabilidad de proporcionar a las personas sobrevivientes un recurso efectivo». La organización de derechos humanos recomienda a la compañía que trabaje directamente con los rohinyás para proporcionar una compensación e indemnización justa a las víctimas. También le exige que realice una reforma profunda de su modelo de negocios para evitar que situaciones similares se repitan en otras partes del mundo.
«Las grandes empresas tecnológicas han demostrado que son incapaces de abordar estas cuestiones si no hay una regulación estatal efectiva. Es imprescindible que los Estados cumplan su obligación de proteger los derechos humanos mediante la introducción y aplicación de leyes efectivas para frenar los modelos empresariales del sector tecnológico basados en la vigilancia», concluye Amnistía.