Por anos, cientistas políticos e outros teóricos sociais reclamaram
do potencial da internet de aplanar e polarizar o discurso democrático.
Como grande parte da informação atualmente vem por meio de motores
digitais moldados por nossas próprias preferências – Facebook, Google e
outros sugerem o conteúdo com base no que os consumidores apreciaram
anteriormente –, estudiosos têm teorizado que as pessoas estão construindo uma câmara de eco online de seus próprios pontos de vista.
Mas, em um estudo revisto por pares publicado na terça-feira na revista
"Science", cientistas de dados do Facebook relataram que a câmara de
eco não é tão insular como muitos temiam - pelo menos não na rede
social. Apesar de pesquisadores independentes terem dito que o estudo
foi importante por seu escopo e tamanho, eles notaram várias limitações
significativas.
Após analisarem como mais de 10 milhões dos
usuários mais partidários da rede social navegavam pelo site durante um
período de seis meses no ano passado, os pesquisadores descobriram que
as redes de amigos das pessoas e as histórias que elas veem de fato
pendem para suas preferências ideológicas. Mas esse efeito é mais
limitado do que o pior cenário previsto por alguns teóricos, no qual as
pessoas quase não veriam histórias do outro lado.
Em média, cerca de 23% dos amigos dos usuários são de uma afiliação
política contrária, segundo o estudo. Uma média de quase 29% das
histórias exibidas pelo Feed de Notícias do Facebook também parecem
apresentar pontos de vista em conflito com a ideologia do usuário.
Além disso, os pesquisadores descobriram que as escolhas dos indivíduos
sobre que histórias clicar tinham um efeito maior do que o mecanismo de
filtragem em determinar se as pessoas encontrariam notícias
conflitantes com sua ideologia professada.
"Esta é a primeira
vez que conseguimos quantificar esses efeitos", disse Eytan Bakshy, um
cientista de dados do Facebook que liderou o estudo, em uma entrevista.
"Você pensaria que, se houvesse uma câmara de eco, você não estaria
exposto a qualquer informação conflitante, mas não é o caso aqui."
As conclusões do Facebook contrariam a antiga preocupação com o
potencial dos sistemas de filtragem digital moldarem nosso mundo. Para o
Facebook, o foco está no algoritmo que a empresa usa para determinar
que postagens as pessoas veem, e quais não, em seu Feed de Notícias.
Cass R. Sunstein, o professor de direito de Harvard e ex-"czar
regulatório" do presidente Barack Obama, temia que esses motores de
recomendação levassem a uma versão sob medida de notícias e
entretenimento que poderia se chamar de "Eu Diário". Eli Pariser,
presidente-executivo da Upworthy e ex-diretor da MoveOn.org, rotulou de
"Bolha de Filtro". Alguns usuários do Facebook disseram que deixam de
seguir amigos e conhecidos que postam conteúdo do qual discordam.
E, com as discussões políticas se tornando cada vez mais acaloradas à
medida que se aproxima a eleição presidencial do ano que vem, na qual a
internet será usada como uma importante ferramenta de campanha, o
problema parece se agravar.
"Isso mostra que os efeitos sobre os
quais escrevi existem e são significativos, mas são menores do que
imaginava", disse Pariser em uma entrevista sobre o estudo do Facebook.
Natalie Jomini Stroud, uma professora de estudos de comunicação da
Universidade do Texas, em Austin, que não esteve envolvida no estudo,
disse que os resultados foram "um corretivo importante" para o
pensamento convencional.
"Fala-se muito sobre o algoritmo e como poderia limitar o que as pessoas veem", ela disse.
O estudo se soma a outros que debatem se a internet cria uma câmara
de eco. Um relatório do Centro Pew de Pesquisa do ano passado apontou
que os veículos de mídia citados pelas pessoas como suas principais
fontes de informação sobre política e notícias estão fortemente
correlacionados com seus pontos de vista políticos. Outro estudo,
publicado no final do ano passado como um documento de trabalho do Birô
Nacional de Pesquisa Econômica, analisou o uso do Twitter durante a
eleição de 2012 e apontou que a rede social frequentemente expunha os
usuários apenas a opiniões equivalentes às suas.
Stroud e vários
outros pesquisadores notam que o estudo do Facebook tem limitações.
Todos os usuários estudados eram de um tipo: aqueles que se
identificavam como liberais ou conservadores em seus perfis. A maioria
dos usuários do Facebook não posta suas posições políticas, e Stroud
alertou que esses usuários podem ser tanto mais ou menos receptivos a
pontos de vista políticos conflitantes.
As conclusões são
convenientes para o Facebook. Com mais de 1,3 bilhão de usuários, a rede
social é na prática o jornal diário mais lido do mundo. Cerca de 30%
dos adultos americanos obtêm suas notícias pela rede social, segundo o
Centro Pew de Pesquisa. Mas suas decisões editoriais são feitas em uma
caixa preta, com o opaco algoritmo do Feed de Notícias da empresa
decidindo quais postagens de seus amigos você vê, quais não e em que
ordem. O Facebook poderia usar os resultados de seu estudo para mostrar
que seu algoritmo secreto não está controlando o discurso nacional.
O Facebook disse que seus pesquisadores contam com ampla liberdade
para seguir seus interesses de pesquisa e apresentar aquilo que
encontram.
A empresa também notou que esse estudo foi
substancialmente diferente daquele que causou protestos no ano passado,
no qual cientistas da empresa alteraram o número de postagens positivas e
negativas que as pessoas viam, para examinar os efeitos sobre seu
humor. O estudo atual não envolveu um experimento que mudava a
experiência dos usuários do Facebook. Os pesquisadores analisaram como
as pessoas usam o Facebook como ele é hoje.
Fonte: Uol