Facebook foi usado para incitar tráfico humano e limpeza étnica, dizem jornais
Segundo documentos, empresa se expandiu sem investir o suficiente na moderação de plataformas
Do tráfico de mulheres em Dubai aos cartéis de drogas no México, da limpeza étnica na Etiópia a ataques contra muçulmanos na Índia, o Facebook tem sido utilizado para incentivar atividades criminosas e discurso de ódio contra minorias e falhou em proteger seus usuários em zonas de conflitos e em países onde a desinformação tem potencial de causar mais danos.
Segundo documentos internos vazados por uma ex-funcionária e divulgados nos últimos dias por um consórcio de 17 veículos de comunicação, a empresa se expandiu globalmente sem investir o suficiente na moderação de suas plataformas, especialmente em países onde não se fala inglês.
A companhia opera em mais de 190 países e tem mais de 2,8 bilhões de usuários mensais que postam conteúdo em 160 idiomas.
Os documentos foram recolhidos por Frances Haugen, que trabalhou na equipe dedicada à integridade cívica no grupo de Mark Zuckerberg, antes de deixar a empresa, em maio, e enviados ao Congresso americano e ao grupo de meios de comunicação –a série vem sendo chamada de Facebook Papers ou Facebook Files.
Apesar de esforços para enfrentar a desinformação terem sido bem-sucedidos em alguns lugares, a resposta tem sido insuficiente em vários outros, afirmam as reportagens do consórcio.
No fim de 2020, por exemplo, um relatório interno mostrou que apenas 6% do conteúdo de ódio postado em árabe no Instagram –rede social que faz parte do grupo– foi detectado.
Outro estudo mostrou que menos de 1% do material classificado como discurso de ódio em um período de 30 dias no Afeganistão foi identificado pelas ferramentas de moderação automática.
Anúncios atacando mulheres e pessoas LGBTQ raramente foram sinalizados no Oriente Médio, e uma pesquisa recente no Egito revelou que usuários têm medo de serem presos ou atacados após postarem suas visões políticas na plataforma, informou nesta segunda-feira (25) o Politico, um dos integrantes do consórcio de imprensa que teve acesso aos documentos.
O site cita ainda o exemplo do Iraque, onde milícias sunitas e xiitas usaram ciber-ativistas para postar material profano e ilegal nas contas dos rivais, em uma tentativa de que elas fossem removidas.
No ano passado, de acordo com os documentos, apenas 13% das horas de trabalho da equipe de moderação de desinformação foram dedicadas a países fora dos EUA, cujas populações compreendem mais de 90% dos usuários da plataforma, mostrou uma reportagem publicada pelo site The Atlantic, outro membro do consórcio.
A reportagem afirma que a empresa não investiu em idiomas e dialetos falados fora dos EUA e da Europa tanto para suas ferramentas de inteligência artificial quanto para equipes que moderam conteúdo.
Diz ainda que o Facebook está ciente de que seus esforços são insuficientes para combater o problema, citando um relatório de março de 2021 mencionando que essas “atividades coordenadas e intencionais” são especialmente prevalentes e problemáticas em países e contextos de risco e que “as atuais estratégias de mitigação são insuficientes”.
De acordo com a reportagem, se nos Estados Unidos há críticas sobre o papel da plataforma em disseminar teorias da conspiração que levaram, por exemplo, à invasão do Capitólio em 6 de janeiro por partidários do ex-presidente Donald Trump, em outros países a situação é mais grave.
“Esses documentos mostram que o Facebook que temos nos Estados Unidos é, na verdade, a plataforma em sua melhor versão. É a versão feita por pessoas que falam nossa língua e entendem nossos costumes, que levam nossos problemas cívicos a sério por serem problemas deles também.
É a versão que existe em uma internet gratuita, sob um governo relativamente estável, em uma democracia forte. É também a versão à qual o Facebook dedica mais recursos de moderação”, sintetiza o The Atlantic.
“Em outros lugares, segundo os documentos, as coisas são diferentes. Nas partes mais vulneráveis do mundo -locais com acesso limitado à internet, onde um número menor de usuários significa que os malfeitores têm influência desproporcional-, os erros que o Facebook comete podem ter consequências mortais.”
Um exemplo concreto é o da Etiópia, país que vive uma guerra civil desde o ano passado na região do Tigré, no norte.
Segundo reportagem desta segunda-feira (25) da CNN, um relatório interno de março deste ano afirma que grupos armados no país têm usando a plataforma para incitar à violência contra minorias étnicas.
Um desses grupos, acusado de cometer assassinatos, estupros e outras brutalidades contra civis no conflito, usava a plataforma para incitar a violência, promover batalhas, recrutar soldados e arrecadas fundos.
Embora a equipe do Facebook tenha recomendado que a rede afiliada à milícia fosse retirada do ar, o relatório afirma que os esforços não têm sido suficientes.
A CNN também fez uma reportagem sobre a relação entre a companhia e o trabalho escravo de mulheres como domésticas no Oriente Médio. De acordo com os documentos analisados, a empresa sabe que traficantes de pessoas usam suas plataformas para esse fim desde pelo menos 2018.
Por esse motivo, em 2019, a Apple ameaçou retirar o Facebook e o Instagram da App Store, sua loja de aplicativos. Depois de um esforço emergencial para retirar do ar posts relacionados a esse tipo de crime, a ameaça não foi adiante.
Mas um relatório interno do começo deste ano observou que “ainda existem lacunas na detecção na plataforma de entidades engajadas em servidão doméstica” e detalhou como as redes sociais da empresa são usadas para recrutar, comprar e vender “empregados domésticos”.
Essas pessoas são sujeitas a abusos físicos e sexuais, sendo privadas de comida e pagamento e tendo seus documentos de viagem confiscados para que não possam escapar.
Usando termos de pesquisa listados na pesquisa interna do Facebook sobre o assunto, a CNN localizou na semana passada contas ativas do Instagram que ofereciam trabalhadores domésticos para venda.
Como resposta à reportagem, o Facebook removeu as contas e postagens depois que a CNN perguntou sobre eles, e o porta-voz Andy Stone confirmou que eles violaram suas políticas.
“Proibimos a exploração humana em termos inequívocos”, disse Stone. “Há muitos anos lutamos contra o tráfico humano em nossa plataforma e nosso objetivo continua sendo impedir que qualquer pessoa que queira explorar outras pessoas tenha um lar em nossa plataforma”.
Maior mercado do Facebook, a Índia, onde moram 340 milhões de usuários das várias redes sociais da empresa, também é citado várias vezes nos documentos como um caso problemático.
O jornal The New York Times, que também teve acesso aos documentos vazados, publicou uma reportagem afirmando que, com base nos papéis, o Facebook não tinha recursos suficientes na Índia e não foi capaz de lidar com os problemas que introduziu no país.
Os documentos incluem relatórios sobre como robôs (bots) e contas falsas ligadas ao partido governista e a figuras da oposição causaram estragos nas eleições nacionais.
Eles também detalham como um plano defendido pelo CEO do grupo, Mark Zuckerberg, para se concentrar em “interações sociais significativas”, ou comunicações entre amigos e familiares, estava levando a mais desinformação, especialmente durante a pandemia.
O caso, segundo o jornal, confirma as críticas feitas por ativistas de direitos humanos e políticos à empresa de alcance global: de que ela entra num país sem compreender bem seus efeitos potenciais na cultura e na política locais e não consegue empregar recursos para agir sobre os problemas quando eles ocorrem.
Após o início das eleições nacionais na Índia, o Facebook implementou medidas para conter o fluxo de desinformação e o discurso de ódio no país, de acordo com um documento interno denominado Estudo de Caso da Eleição Indiana.
O trabalho pintou um quadro otimista dos esforços, incluindo o acréscimo de parceiros para verificação de fatos –a rede de terceiros com a qual a empresa trabalha para checar fatos– e a quantidade crescente de desinformação removida.
Também observou que o Facebook tinha criado uma “lista de permissão política para limitar o risco de relações-públicas”, essencialmente uma lista de políticos que receberam uma isenção especial da verificação de fatos.
O estudo não observou o problema que a empresa enfrentava com os “bots”, nem questões como a supressão de eleitores.
Durante a eleição, o Facebook viu um pico de bots –ou contas falsas– vinculadas a vários grupos políticos, bem como esforços para espalhar informações incorretas que poderiam ter afetado a compreensão das pessoas sobre o processo de votação.
Em um relatório separado produzido após as eleições, o Facebook descobriu que mais de 40% das principais visualizações, ou impressões, em Bengala Ocidental foram “falsas/inautênticas”.
Um relatório publicado em março mostrou que muitos dos problemas citados durante as eleições de 2019 persistiam. Cinco meses atrás, o Facebook ainda lutava para remover com eficiência o discurso de ódio contra os muçulmanos.
Texto: Flávia Mantovani