Em experimento secreto, Facebook manipula emoções de usuários

Um estudo detalhando como o Facebook manipulou secretamente o feed de notícias de aproximadamente 700 mil usuários com o objetivo de avaliar o “contágio emocional” desencadeou revolta na rede social. Durante uma semana em 2012 o Facebook manipulou o algoritmo usado para distribuir os posts no feed de notícias do usuário para verificar como isso […]

Ouvir Notícia Pausar Notícia
Compartilhar

Um estudo detalhando como o Facebook manipulou secretamente o feed de notícias de aproximadamente 700 mil usuários com o objetivo de avaliar o “contágio emocional” desencadeou revolta na rede social.

Durante uma semana em 2012 o Facebook manipulou o algoritmo usado para distribuir os posts no feed de notícias do usuário para verificar como isso afetou o seu humor.

O estudo, conduzido por pesquisadores associados ao Facebook, pela Universidade de Cornell, e pela Universidade da Califórnia, foi publicado em junho na 17ª edição dos Anais da Academia Nacional de Ciência (http://www.pnas.org/content/111/24/8788.full.pdf).

Os pesquisadores pretendiam verificar se o número de palavras positivas ou negativas nas mensagens lidas pelos usuários resultaria em atualizações positivas ou negativas de seus posts nas redes sociais.

Observou-se que os usuários que tiveram o feed manipulado utilizaram palavras positivas ou negativas dependendo do conteúdo ao qual foram expostos.

Os resultados do estudo foram propagados quando a revista online Slate and The Atlantic abordou o assunto no sábado.

“Estados emocionais podem ser transferidos para os outros por meio do contágio emocional, levando as pessoas a experimentarem as mesmas emoções de modo inconsciente”, afirmam os autores da pesquisa.

“Estes resultados provam que as emoções expressas pelos outros no Facebook influenciam nossas próprias emoções, o que evidencia o contágio em larga escala via redes sociais.”

Enquanto outros estudos usam metadados para estudar tendências, este parece ser o primeiro a manipular dados para verificar se há reação.

A pesquisa é considerada legal de acordo com as normas do Facebook, mas seria ética?

“#Facebook FEED DE USUÁRIOS MANIPULADOS PARA EXPERIMENTO PSICOLÓGICO EM MASSA… Sim, está na hora de encerrar a conta do FB!”, lia-se em post do Twitter.

Outros tweets usavam expressões como “super perturbador”, “assustador” e “mau”, assim como manifestações irritadas, para descrever o estudo.

Susan Fiske, professora da Universidade de Princeton que editou o artigo para publicação, disse a The Atlantic que ela ficou preocupada com a pesquisa e entrou em contato com os autores.

Eles disseram que o conselho institucional aprovou o estudo, já que “o Facebook manipula a atualização do feed dos usuários o tempo todo”.

Fiske admitiu ter ficado “um pouco assustada” com o estudo.

O Facebook disse a The Atlantic que “considera cuidadosamente” a pesquisa e que há “um processo de avaliação interna”.

O Facebook, maior rede social do mundo, informa ter mais de um bilhão de usuários ativos.

Conteúdos relacionados