Por Luciana Gurgel

A notícia foi surpreendente para quem responsabiliza as redes sociais pelas divisões políticas na sociedade: três estudos publicados semana passada na Science e um na Nature não confirmaram o suposto efeito polarizador do conteúdo selecionado pelos algoritmos do Facebook e do Instagram sobre os usuários.

Luciana Gurgel

Outra conclusão que destoa do senso comum é a de que postagens com conteúdo compartilhado, vistas por alguns como prejudicial por disseminarem viralizações nem sempre verdadeiras, na verdade expuseram os usuários a mais fontes confiáveis, com potencial de reduzir a desinformação.

Os experimentos do US 2020 Facebook and Instagram Election Study foram feitos por pesquisadores de várias universidades americanas, em cooperação com a Meta. Eles tiveram acesso aos dados de milhões de pessoas que concordaram em participar do estudo durante a campanha eleitoral de 2020 nos EUA.

Apesar da abrangência, há muitas limitações, como o fato de se restringir a apenas um país e não incluir o WhatsApp, que em nações como Brasil e Índia tem penetração enorme e é apontado como grande fonte de incentivo ao extremismo.

Tecnicamente, o WhatsApp não é uma rede e sim um serviço de mensagens, mas a percepção inicial sobre esses estudos pode induzir a pensar que nenhuma plataforma é capaz de influenciar a polarização − entretanto, estamos falando apenas de duas delas, em um ambiente segregado, e há três anos.

Embora o presidente da Meta para assuntos internacionais, o ex-político britânico Nick Clegg, tenha comemorado o fato de que os resultados revelaram poucas evidências de que as plataformas causem “polarização afetiva prejudicial ou tenham qualquer impacto significativo nas principais atitudes, crenças ou comportamentos políticos”, outros foram mais cautelosos.

Michael W.Wagner, professor de jornalismo da Universidade de Wisconsin, que atuou como observador independente do projeto, disse ao Washington Post que as conclusões “são apenas uma evidência científica de que não há apenas um problema fácil de resolver”.

Como foram feitos os experimentos

Um dos trabalhos investigou os efeitos dos algoritmos em 23 mil usuários do Facebook e 21 mil do Instagram durante a campanha politica.

Uma parte deles continuou tendo o conteúdo de seus feeds regido pelos algoritmos, enquanto o restante passou a ver postagens em ordem cronológica.

Os que não receberam conteúdo selecionado por eles passaram menos tempo no Facebook e no Instagram − mas migraram para redes concorrentes.

A exposição a informações classificadas como “políticas e não confiáveis” aumentou nas duas redes. O conteúdo “antisocial e de ódio” diminuiu no Facebook, enquanto “conteúdo de amigos moderados e públicos ideologicamente mistos” aumentou.

Mas não houve evidência de impacto sobre mudanças de atitude fora das plataformas, nem sobre o conhecimento político, segundo Andrew Guess, pesquisador de Princeton e autor principal desse experimento.

Outra pesquisa liderada por Guess examinou os efeitos da exposição a conteúdo compartilhado no Facebook. Um grupo de 23 mil usuários deixou de ver posts compartilhados por três meses, e acabou reduzindo a exposição a qualquer tipo de notícia política, confiável ou não.

“Pode parecer contraditório, pois acredita-se que o conteúdo potencialmente viral promova desinformação – e, de fato, isso acontece até certo ponto. Mas mais conteúdo compartilhado veio de fontes confiáveis do que não confiáveis − portanto, nessas duas redes os participantes do estudo ficaram mais bem informados”, disse Guess.

Um terceiro estudo da série revelou que o consumo de notícias falsas ou imprecisas sobre política mostrou-se maior entre pessoas simpáticas ao partido Republicano: 97% das fontes identificadas como associadas à desinformação eram mais populares entre elas do que entre os liberais.

Os resultados podem ter decepcionado os que acreditavam em uma virada de chave no Facebook e no Instagram como forma de resolver a polarização. Seria uma ótima notícia.

Mas é prematuro acreditar que absolvam totalmente a mídia digital, por não levarem em conta o poder do WhatsApp, por exemplo. Ou a realidade de outros países, cujas populações têm menos acesso a outras fontes de notícias e poderiam reagir de forma diferente aos experimentos feitos nos EUA há quase três anos.


Para receber as notícias de MediaTalks em sua caixa postal ou se deixou de receber nossos comunicados, envie-nos um e-mail para incluir ou reativar seu endereço.

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comentários
Inline Feedbacks
View all comments