Rohingya busca indenizações do Facebook por seu papel no massacre

0


Com galos cantando ao fundo enquanto ela fala do campo de refugiados lotado em Bangladesh que tem sido sua casa desde 2017, Maung Sawyeddollah, 21, descreve o que aconteceu quando o violento discurso de ódio e a desinformação contra a minoria Rohingya em Mianmar começaram a se espalhar no Facebook.

“Fomos bons para a maioria das pessoas lá. Mas alguns caras muito limitados e muito nacionalistas intensificaram o ódio contra os Rohingya no Facebook”, disse ele. “E as pessoas que eram boas, em estreita comunicação com os Rohingya. eles mudaram de ideia contra os Rohingya e isso se transformou em ódio.

Durante anos, o Facebook, agora chamado Meta Platforms Inc., pressionou a narrativa de que era uma plataforma neutra em Mianmar que foi mal utilizada por pessoas mal-intencionadas, e que apesar de seus esforços para remover material violento e odioso, infelizmente ficou aquém. Essa narrativa ecoa sua resposta ao papel que desempenhou em outros conflitos ao redor do mundo, seja na eleição de 2020 nos Estados Unidos ou no discurso de ódio na Índia.

Mas um novo relatório abrangente da Anistia Internacional afirma que a narrativa preferida do Facebook é falsa. A plataforma, diz a Anistia, não era simplesmente um site passivo com moderação de conteúdo insuficiente. Em vez disso, os algoritmos da Meta “amplificaram e promoveram conteúdo proativamente” no Facebook, provocando ódio violento contra os Rohingya a partir de 2012.

Apesar de anos de alertas, segundo a Anistia Internacional, a empresa não só falhou em eliminar o discurso violento de ódio e a desinformação contra os Rohingya, mas a disseminou e ampliou-o ativamente até culminar no massacre de 2017. O momento coincidiu com a crescente popularidade do Facebook em Mianmar, onde para muitas pessoas serviu como sua única conexão com o mundo online. Isso efetivamente fez do Facebook a Internet para um grande número de população de Mianmar.

Mais de 700.000 Rohingya fugiram para o vizinho Bangladesh naquele ano. As forças de segurança de Mianmar foram acusadas de estupros em massa, assassinatos e queima de milhares de casas pertencentes a Rohingya.

“A Meta, através de seus algoritmos perigosos e busca incessante pelo lucro, contribuiu substancialmente para as graves violações dos direitos humanos perpetradas contra os Rohingya”, diz o relatório.

Um porta-voz da Meta se recusou a responder perguntas sobre o relatório da Anistia. Em um comunicado, a empresa disse que “se solidariza com a comunidade internacional e apoia os esforços para responsabilizar os Tatmadaw por seus crimes contra o povo Rohingya”.

“Nosso trabalho de segurança e integridade em Mianmar continua sendo guiado pelo feedback de organizações da sociedade civil local e instituições internacionais, incluindo a Missão das Nações Unidas para a Apuração de Fatos em Mianmar; a Avaliação de Impacto dos Direitos Humanos que encomendamos em 2018; assim como nossa gestão contínua de riscos de direitos humanos”, disse Rafael Frankel, diretor de políticas públicas para mercados emergentes da Meta Asia-Pacific, em comunicado.

Como Sawyeddollah, que é citado no relatório da Anistia e falou com a AP na terça-feira, a maioria das pessoas que fugiram de Mianmar, cerca de 80% dos Rohingya que viviam no estado de Rakhine ocidental de Mianmar na época, ainda permanecem em campos de refugiados. E eles estão pedindo a Meta para pagar indenizações por seu papel na violenta repressão aos muçulmanos rohingya em Mianmar, que os Estados Unidos declararam genocídio no início deste ano.

O relatório da Anistia, publicado na quarta-feira, é baseado em entrevistas com refugiados rohingya, ex-funcionários da Meta, acadêmicos, ativistas e outros. Também se baseou em documentos revelados ao Congresso no ano passado pela denunciante Frances Haugen, ex-cientista de dados do Facebook. Ele observa que ativistas de direitos digitais dizem que a Meta melhorou seu engajamento na sociedade civil e alguns aspectos de suas práticas de moderação de conteúdo em Mianmar nos últimos anos. Em janeiro de 2021, após um violento golpe derrubar o governo, ele baniu os militares do país de sua plataforma.

Mas os críticos, incluindo alguns dos próprios funcionários do Facebook, há muito afirmam que tal abordagem nunca funcionará de verdade. Isso significa que meta está jogando whack-a-mole tentando remover material nocivo, enquanto seus algoritmos projetados para empurrar conteúdo “envolvente” que é mais provável para irritar as pessoas essencialmente traeles vão contra ele.

“Esses algoritmos são realmente perigosos para nossos direitos humanos. E o que aconteceu com o papel dos Rohingya e do Facebook nesse conflito específico corre o risco de acontecer novamente, em muitos contextos diferentes ao redor do mundo”, disse Pat de Brún, pesquisador e conselheiro de Inteligência Artificial e Direitos Humanos da Anistia Internacional.

“A empresa tem sido completamente relutante ou incapaz de abordar as causas básicas de seu impacto nos direitos humanos.”

Depois que o Inquérito Internacional Independente da ONU destacou o papel “significativo” que o Facebook desempenhou nas atrocidades perpetradas contra os Rohingya, Meta admitiu em 2018 que “não estávamos fazendo o suficiente para ajudar a impedir que nossa plataforma fosse usada para fomentar a divisão e incitar a violência offline”.

Nos anos seguintes, a empresa “promoveu certas melhorias em suas práticas de engajamento e moderação de conteúdo da comunidade em Mianmar”, disse a Anistia, acrescentando que seu relatório “considera que essas medidas se mostraram totalmente inadequadas”.

Em 2020, por exemplo, três anos após a violência em Mianmar matar milhares de muçulmanos rohingya e deslocar mais 700.000, o Facebook investigou como um vídeo de uma figura proeminente de ódio anti-Rohingya, U Wirathu, estava circulando em seu site.

A pesquisa revelou que mais de 70% das visualizações do vídeo vieram de “acorrentamento”, ou seja, as pessoas foram sugeridas a reproduzir um vídeo diferente, mostrando o que é “o seguinte”. Os usuários do Facebook não estavam procurando ou procurando o vídeo, mas os algoritmos da plataforma o alimentaram.

Wirathu estava banido do Facebook desde 2018.

“Mesmo uma abordagem bem-aproveitada para a moderação de conteúdo, isoladamente, provavelmente não teria sido suficiente para prevenir e mitigar esses danos algorítmicos. Isso ocorre porque a moderação de conteúdo não aborda a causa raiz da amplificação algorítmica de conteúdo nocivo da Meta”, diz o relatório da Anistia.

Os refugiados rohingya estão buscando reparações não especificadas do Parque Menlo, gigante das mídias sociais com sede na Califórnia, por seu papel na perpetuação do genocídio. Meta, que é objeto de processos duplos nos Estados Unidos e no Reino Unido que buscam US$ 150 bilhões para refugiados rohingya, até agora recusou.

“Acreditamos que o genocídio contra os Rohingya só foi possível por causa do Facebook”, disse Sawyeddollah. “Eles se comunicavam uns com os outros para espalhar ódio, organizavam campanhas através do Facebook. Mas o Facebook ficou em silêncio.”

Deixe uma resposta

Seu endereço de email não será publicado.