Página Inicial



twitter

Facebook

  Notícia
|

 

ESTUDO DO FACEBOOK CONTESTA TEORIA DE POLARIZAÇÃO POLÍTICA ENTRE USUÁRIOS

08/05/2015

Por anos, cientistas políticos e outros teóricos sociais reclamaram do potencial da internet de aplanar e polarizar o discurso democrático. Como grande parte da informação atualmente vem por meio de motores digitais moldados por nossas próprias preferências – Facebook, Google e outros sugerem o conteúdo com base no que os consumidores apreciaram anteriormente –, estudiosos têm teorizado que as pessoas estão construindo uma câmara de eco online de seus próprios pontos de vista.

Mas, em um estudo revisto por pares publicado na terça-feira na revista "Science", cientistas de dados do Facebook relataram que a câmara de eco não é tão insular como muitos temiam - pelo menos não na rede social. Apesar de pesquisadores independentes terem dito que o estudo foi importante por seu escopo e tamanho, eles notaram várias limitações significativas.

Após analisarem como mais de 10 milhões dos usuários mais partidários da rede social navegavam pelo site durante um período de seis meses no ano passado, os pesquisadores descobriram que as redes de amigos das pessoas e as histórias que elas veem de fato pendem para suas preferências ideológicas. Mas esse efeito é mais limitado do que o pior cenário previsto por alguns teóricos, no qual as pessoas quase não veriam histórias do outro lado.
 

Em média, cerca de 23% dos amigos dos usuários são de uma afiliação política contrária, segundo o estudo. Uma média de quase 29% das histórias exibidas pelo Feed de Notícias do Facebook também parecem apresentar pontos de vista em conflito com a ideologia do usuário.

Além disso, os pesquisadores descobriram que as escolhas dos indivíduos sobre que histórias clicar tinham um efeito maior do que o mecanismo de filtragem em determinar se as pessoas encontrariam notícias conflitantes com sua ideologia professada.

"Esta é a primeira vez que conseguimos quantificar esses efeitos", disse Eytan Bakshy, um cientista de dados do Facebook que liderou o estudo, em uma entrevista. "Você pensaria que, se houvesse uma câmara de eco, você não estaria exposto a qualquer informação conflitante, mas não é o caso aqui."

As conclusões do Facebook contrariam a antiga preocupação com o potencial dos sistemas de filtragem digital moldarem nosso mundo. Para o Facebook, o foco está no algoritmo que a empresa usa para determinar que postagens as pessoas veem, e quais não, em seu Feed de Notícias.
 

Cass R. Sunstein, o professor de direito de Harvard e ex-"czar regulatório" do presidente Barack Obama, temia que esses motores de recomendação levassem a uma versão sob medida de notícias e entretenimento que poderia se chamar de "Eu Diário". Eli Pariser, presidente-executivo da Upworthy e ex-diretor da MoveOn.org, rotulou de "Bolha de Filtro". Alguns usuários do Facebook disseram que deixam de seguir amigos e conhecidos que postam conteúdo do qual discordam.

E, com as discussões políticas se tornando cada vez mais acaloradas à medida que se aproxima a eleição presidencial do ano que vem, na qual a internet será usada como uma importante ferramenta de campanha, o problema parece se agravar.

"Isso mostra que os efeitos sobre os quais escrevi existem e são significativos, mas são menores do que imaginava", disse Pariser em uma entrevista sobre o estudo do Facebook.

Natalie Jomini Stroud, uma professora de estudos de comunicação da Universidade do Texas, em Austin, que não esteve envolvida no estudo, disse que os resultados foram "um corretivo importante" para o pensamento convencional.

"Fala-se muito sobre o algoritmo e como poderia limitar o que as pessoas veem", ela disse.
 

O estudo se soma a outros que debatem se a internet cria uma câmara de eco. Um relatório do Centro Pew de Pesquisa do ano passado apontou que os veículos de mídia citados pelas pessoas como suas principais fontes de informação sobre política e notícias estão fortemente correlacionados com seus pontos de vista políticos. Outro estudo, publicado no final do ano passado como um documento de trabalho do Birô Nacional de Pesquisa Econômica, analisou o uso do Twitter durante a eleição de 2012 e apontou que a rede social frequentemente expunha os usuários apenas a opiniões equivalentes às suas.

Stroud e vários outros pesquisadores notam que o estudo do Facebook tem limitações. Todos os usuários estudados eram de um tipo: aqueles que se identificavam como liberais ou conservadores em seus perfis. A maioria dos usuários do Facebook não posta suas posições políticas, e Stroud alertou que esses usuários podem ser tanto mais ou menos receptivos a pontos de vista políticos conflitantes.

As conclusões são convenientes para o Facebook. Com mais de 1,3 bilhão de usuários, a rede social é na prática o jornal diário mais lido do mundo. Cerca de 30% dos adultos americanos obtêm suas notícias pela rede social, segundo o Centro Pew de Pesquisa. Mas suas decisões editoriais são feitas em uma caixa preta, com o opaco algoritmo do Feed de Notícias da empresa decidindo quais postagens de seus amigos você vê, quais não e em que ordem. O Facebook poderia usar os resultados de seu estudo para mostrar que seu algoritmo secreto não está controlando o discurso nacional.
 

O Facebook disse que seus pesquisadores contam com ampla liberdade para seguir seus interesses de pesquisa e apresentar aquilo que encontram.

A empresa também notou que esse estudo foi substancialmente diferente daquele que causou protestos no ano passado, no qual cientistas da empresa alteraram o número de postagens positivas e negativas que as pessoas viam, para examinar os efeitos sobre seu humor. O estudo atual não envolveu um experimento que mudava a experiência dos usuários do Facebook. Os pesquisadores analisaram como as pessoas usam o Facebook como ele é hoje.

 
 
 
 Fonte: Uol

 
Indique esta notícia Indique esta notícia para um amigo

Início Notícias  | Voltar