YouTube empurrou apoiadores de Trump para vídeos de fraude eleitoral, revela estudo

0


O sistema de recomendação do YouTube pode ter aumentado o interesse em falsas alegações sobre fraude eleitoral por várias semanas entre as eleições presidenciais de 2020 e os distúrbios de 6 de janeiro no Capitólio dos EUA, de acordo com um estudo divulgado na quinta-feira com base em dados do período crucial.

Os pesquisadores analisaram o uso do YouTube de 361 pessoas que se inscreveram antes da eleição para participar do estudo. Eles descobriram que os participantes mais céticos sobre a legitimidade da eleição eram desproporcionalmente mais propensos a obter recomendações de vídeo relacionadas à fraude do YouTube do que os participantes que não eram céticos.

O estudo se soma a um debate entre empresas de tecnologia e entre acadêmicos sobre câmaras de eco online e “bolhas de filtro”, nas quais as pessoas levam informações apenas com as quais concordam, seja porque é isso que elas querem ou é isso que as plataformas de tecnologia lhes dão ou ambos.

Os pesquisadores descobriram que os mais céticos sobre os resultados eleitorais receberam três vezes mais recomendações de vídeo para fraude eleitoral do que participantes menos prováveis, embora em termos absolutos o número de vídeos fosse pequeno: 12 vídeos contra quatro vídeos de cerca de 410 recomendações.

James Bisbee, autor principal do estudo e professor assistente de ciência política e ciência de dados na Universidade Vanderbilt, disse que as recomendações do YouTube ajudaram a criar um caminho para pessoas que já estão abertas a teorias conspiratórias espalhadas pelo então presidente Donald Trump.

“O primeiro passo nesse caminho está aberto”, disse ele. “As pessoas mais propensas a acreditar que essas narrativas estavam sendo sugeridas mais conteúdo sobre elas.”

O estudo, coautor com pesquisadores da Universidade de Nova York, foi publicado no Journal of Online Trust and Safety.

O escrutínio do sistema de recomendação do YouTube, que sugere que os vídeos que os usuários devem assistir em seguida, ganhou força por volta de 2018, especialmente quando um ex-funcionário trouxe alegações de que o objetivo final do sistema de manter as pessoas em sua plataforma havia empurrado as pessoas para desinformação e teorias da conspiração. juntamente com outros conteúdos questionáveis. A empresa disse que em 2019 estava revisando seu sistema de referência.

O YouTube atraiu críticas em novembro de 2020 por se recusar a remover vídeos que alegavam sem provas que Joe Biden roubou a eleição de Trump. Ele disse então que queria dar aos usuários espaço para “discussão dos resultados eleitorais”, apostando em uma posição menos agressiva que a do Facebook e twitter.

Agora, no entanto, as políticas escritas do YouTube proíbem esses vídeos.

“O YouTube não permite ou recomenda vídeos que promovam falsas alegações de que fraudes generalizadas, erros ou falhas ocorreram nas eleições presidenciais dos EUA em 2020”, disse a empresa em um comunicado em resposta ao último estudo.

Ele questionou as conclusões do estudo, dizendo que algumas das recomendações de vídeo podem não ter vindo de seu algoritmo, mas das decisões dos usuários de assinar determinados canais. Outras pesquisas descobriram que seus usuários raramente são recomendados vídeos de canais extremistas que eles não assinam.

“Embora saúdamos mais pesquisas, este relatório não representa com precisão como nossos sistemas funcionam”, disse a empresa. “Descobrimos que os vídeos e canais mais vistos e recomendados relacionados à eleição vêm de fontes autoritárias, como canais de notícias.”

O YouTube está recebendo mais escrutínio por seu papel na eleição e política de 2020. Um estudo publicado na semana passada e financiado por sua empresa-mãe, o Google, descobriu que vídeos “pré-bunking” podem ajudar as pessoas a detectar argumentos fracos online. Tem sido lento levar a sério a ameaça de nacionalistas brancos violentos, de acordo com um novo livro do jornalista da Bloomberg News Mark Bergen.

Homa Hosseinmardi, cientista sênior do Laboratório de Ciências Sociais Computacionais da Universidade da Pensilvânia, disse não estar convencida de que o último estudo mostrou que havia viés sistemático no mecanismo de recomendação do YouTube. Ele disse que parte da dificuldade era levar em conta o histórico de navegação.n dos usuários, que estava disponível para apenas 153 dos participantes.

Ele disse que, independentemente da receita secreta da recomendação, ainda existem formas de combater a desinformação, como desqualificar alguns vídeos de serem totalmente recomendados ou remover vídeos, como a empresa tem feito.

“Ou a pergunta é: ‘O que o YouTube deve hospedar?'”, disse ele em um e-mail. Isso, disse ele, é “mais uma questão de moderação de conteúdo”.

O último estudo inclui várias qualificações. Ele não explora se os vídeos do YouTube sobre fraude eleitoral mudaram as crenças das pessoas ou alteraram seu comportamento, e não sugere que a plataforma foi uma das principais causas de radicalização entre os membros da máfia de 6 de janeiro ou entre seus apoiadores. As câmaras echo na TV a cabo são ainda mais extremas do que as das mídias sociais, escrevem os autores, citando pesquisas anteriores de outros.

Mas o estudo é notável pela forma como mede o efeito do mecanismo de recomendação do YouTube, um fator difícil de isolar das próprias preferências dos usuários.

A descoberta pode ser subestimada, escreveram os pesquisadores, porque sua amostra era desproporcionalmente jovem e liberal, com os partidários de Trump sub-representados. O YouTube também removeu cerca de 8.000 canais de desinformação eleitoral enquanto o estudo estava em andamento.

O YouTube geralmente não fornece muitos dados para pesquisadores externos, então dados independentes sobre sua plataforma ainda são raros. E o estudo cobriu um momento especialmente importante para a democracia americana, de 29 de outubro a 8 de dezembro de 2020, na época em que a empresa iniciou uma onda de remoção de desinformação.

“Não podemos voltar no tempo e não podemos fazer isso de novo, e além disso, não podemos nem olhar para trás no que estava mais geralmente na plataforma durante esse período”, disse Bisbee.

“Era o lugar certo na hora certa para coletar esses dados”, disse ele.

Deixe uma resposta

Seu endereço de email não será publicado.