fbpx

Redes sociais como canais de distribuição de conteúdo informacional – Por Bernardo Araujo

Em qual contexto o Facebook começa a retirar páginas e perfis do ar?

O Facebook alega estar investindo muito tempo e recursos para combater a desinformação por meio de uma estratégia com quatro pilares: (i) reduzir contas e conteúdo que violem as políticas da plataforma; (ii) reduzir a distribuição de notícias falsas e os incentivos econômicos para a sua criação; (iii) informar, dando mais contexto sobre cada história, e (iv) investir em inteligência artificial (machine learning) capaz de detectar “false news”, como a empresa prefere nomear. Para isso, a rede social vem também investindo em parcerias com organizações de verificação de fatos e notícias ao redor do mundo. Assim, quando uma notícia é classificada como falsa por uma das instituições parceiras, o Facebook reduz o alcance do seu conteúdo no Feed de Notícias, restringindo a exposição. Isso ajuda a diminuir as visualizações em mais de 80%, segundo a empresa.

No entanto, apesar dos investimentos, o Facebook argumenta que verificadores de fatos não existem em todos os países, e diferentes regiões têm diferentes padrões de jornalismo e níveis variados de liberdade de imprensa, e que pode levar horas ou até dias para se revisar uma possível notícia falsa. E a maioria das alegações não se limitam a um link – as notícias falsas se espalham para outros sites, o que tecnicamente dificulta sua localização. Afirmam também que para progredir realmente, precisam seguir melhorando com o uso de inteligência artificial (machine learning).

No caso do Brasil, a empresa apoia a coalizão de 24 empresas de mídia para combater a desinformação nas eleições: o projeto “Comprova”, terá início em 6 de agosto e irá até o segundo turno das eleições, em 28 de outubro de 2018. Por fim, o Facebook também disponibiliza em sua plataforma algumas dicas bastante úteis para identificar notícias falsas.

Todavia, para saber se o Facebook acertou ao retirar uma rede de páginas e perfis do ar, é necessário entender como esses atores se utilizam da atual arquitetura da Internet para, segundo a empresa, promover a desinformação.

Desde que o Google introduziu a possibilidade de pesquisa personalizada em 2004, todas as buscas que realizamos estão associadas às nossas navegações passadas. Isso significa dizer que, ao realizar uma pesquisa, os resultados aparecidos não se baseiam apenas na relevância de cada página na web, mas também em uma série de outros sinais de nossa “personalidade” que deixamos espalhados pela rede. De um lado, isso proporciona uma experiência personalizada que tende a aumentar a relevância e precisão dos resultados da pesquisa para um usuário específico, mas por outro, essa filtragem também pode ter alguns efeitos colaterais, como criar os “filtros bolha” (filter bubbles), definidos segundo Eduardo Magrani como “um conjunto de dados gerado por todos os mecanismos algorítmicos utilizados para se fazer uma edição invisível voltada à customização da navegação on-line.” 1

O resultado de cada um de nós estarmos, involuntariamente, inseridos em um filtro bolha meticulosamente definido a partir de nossas preferências e costumes de navegação, o qual faz com que, ao buscarmos por uma informação na rede, sejamos direcionados a um tipo de conteúdo específico, enquanto outra pessoa qualquer, cujos diferentes hábitos foram igualmente filtrados por seus próprios algoritmos, se depare com um conteúdo bastante diferente. Como resultado disso, os usuários se distanciam de informações que discordam de seus pontos de vista, isolando-se efetivamente em suas próprias bolhas culturais ou ideológicas, de maneira que os filtros bolha podem ser, definitivamente, considerados como isoladores intelectuais.

Porém, a questão preocupa ainda mais se considerarmos que pesquisas recentes indicam que a maioria das pessoas recebe suas notícias por meio das redes sociais: no caso do Brasil2 cerca de 70%, e nos Estados Unidos aproximadamente 65%, na combinação de pesquisas.3 A preocupação aqui é que para uma democracia funcionar bem, as pessoas não podem viver em casulos de informação. Elas deveriam estar em contato com uma ampla gama de pontos de vista e ideias. Na verdade, elas deveriam fazer isso mesmo sem querer ver ou ouvir sobre determinados tópicos.

Acontece que essa personalização do conteúdo vem sendo feita não apenas pelos buscadores, como Google e Bing, mas de forma bastante similar pelas redes sociais, como o Facebook, o Instagram e o Twitter, em seus “feeds de notícias”.

É sob esse enfoque que o recente caso Cambridge Analytica chocou o mundo, pois, por meio do tratamento dos dados pessoais de cada usuário coletados no Facebook, a empresa conseguiu desenvolver perfis “psicográficos” para cada usuário e permitir um direcionamento de discurso ainda mais subjetivo.

Em 2013, pesquisadores da Universidade de Cambridge no Reino Unido, publicaram um artigo4 que concluía que as coisas que “curtimos” no Facebook podiam ser usadas para prever traços de nossa personalidade. O estudo se baseou em cinco traços bem estabelecidos da personalidade humana, os chamados Big Five: agradabilidade, neuroticismo, abertura a novas experiências, extroversão e conscienciosidade. Em seguida, os pesquisadores cruzaram esses dados com dados sobre o que esses usuários gostavam, conseguindo traçar um padrão. Esse modelo foi então copiado pela empresa Cambridge Analytica e transportado para fins eleitorais, nas primárias do Partido Republicano pelo oponente de Trump, Ted Cruz, e depois pelo próprio Trump.

Assim, em termos simples, a interação entre quem produz o conteúdo e quem recebe não se parece nem um pouco com cenários antigos de fluxo de informação, e a transposição do micro-targeting para o ambiente eleitoral é preocupante, pois, agora, o emissor entende as personalidades de seus interlocutores e, em seguida, pode usar essas informações para direcionar anúncios e propaganda política às pessoas com uma maior probabilidade de obter resposta positiva, ou até mesmo, alterar palavras e expressões ao se comunicar com grupos propensamente menos receptivos a determinada ideia.

Pra piorar o cenário, de acordo com estimativas5 do provedor de serviços na nuvem Imperva Incapsula, os robôs representaram 51,2% de todo o tráfego da web em 2016. Isso significa que além da atividade humana na Internet e do uso saudável de robôs6, atores estatais e não-estatais estão criando cada vez mais contas automatizadas nas mídias sociais para manipular discursos na esfera pública online. Além disso, segundo o relatório7 “Freedom on the Net 2017 – Manipulating Social Media to Undermine Democracy” da Freedom House, em pelo menos 20 países, padrões característicos de atividade online sugeriram o uso coordenado de tais “bots” para influenciar o cenário político.

No Brasil, recente relatório8 do InternetLab concluiu que no Twitter, entre aproximadamente 13 a 47% dos seguidores dos pré-candidatos à Presidência, são bots, demonstrando que “a presença de bots no discurso político nas eleições de 2018 será uma realidade”.

O uso desses robôs é feito com três objetivos principais: (1) fingir apoio de base para determinado ator político (tática também conhecida como “astroturfing”), (2) desagrupar oponentes e (3) afastar a atenção de assuntos polêmicos, manipulando os “trend topics”. No contexto específico de disputas político-eleitorais, os robôs podem ser manuseados para distorcer a dimensão de movimentos políticos, manipular e radicalizar debates na esfera pública, e criar falsas percepções sobre disputas e consensos nas redes sociais. Percebe-se então que os politicalbots podem moldar a esfera pública online para parecer que determinada figura é mais popular do que de fato é ou, ainda, serem utilizados para replicar discursos em série, fazendo parecer que há uma posição majoritária acerca de uma causa quando, na verdade, não há.

Mais especificamente sobre a disseminação de informações falsas, a prática denominada “astroturfing” funciona da seguinte forma: múltiplas identidades online e grupos de pressão falsos são usados para induzir o público a acreditar que determinada ideia escolhida representa uma visão comumente aceita, ou seja, uma posição majoritária. Neste cenário, os bots são utilizados, por exemplo, ​​para promover falsamente uma notícia com pretenso verniz jornalístico, introduzidas numa variedade de grupos políticos, criando a impressão de amplo apoio popular a uma ideia, política, indivíduo ou produto. Isso é atingido por meio da multiplicação do número de acessos e compartilhamentos potencializados por bots programados com essas intenções e, paralelamente, por pessoas reais que não se deram ao trabalho de verificar a informação.

Outro problema deve ser notado: as informações falsas (principalmente as que apelam para as emoções) são mais lucrativas do que links com notícias verdadeiras. Ora, as mídias sociais precisam do dinheiro de publicidade e nos modelos de negócio praticados por essas plataformas, esse dinheiro é gerado por cliques e, como o estudo9 do MIT indicou, as fake news conseguem mais cliques e ganham mais dinheiro do que as notícias verdadeiras. No entanto, a publicidade por si só não é o único problema. A imprensa tradicional também precisa de verba de propaganda e não está no caminho de possuir sites veiculadores de fake news (ou ainda não, pelo menos).

Portanto, além das fake news serem mais lucrativas, não temos muito controle – nem podemos questionar muito – sobre como e por que uma ou outra notícia apareceu, em detrimento de outra. Pois bem. Para tentar atenuar essa questão, recente artigo publicado por diversos pesquisadores da área propõe10 que as mídias sociais passem a ranquear as fontes de informação por um critério de qualidade.

Ora. Certamente, o ranqueamento pelas plataformas levanta questões sobre estarmos depositando poderes demais nessas empresas de tecnologia. Ocorre que, na outra face da moeda, quando soluções governamentais são tentadas, as mesmas questões surgem, pois se o Estado passasse a ranquear os órgãos da imprensa, possíveis “listas brancas” passariam a ser o problema. E é crucial para um ambiente democrático que a imprensa seja livre. De um modo geral, as avaliações nas mídias sociais costumam ser feitas pela própria sociedade civil, o que é certamente mais democrático do que listas de confiabilidade vindas de órgãos estatais. Neste ponto, conclui-se que a sociedade civil também precisa, externamente, criar seus mecanismos de averiguação da verdade, até porque o problema da disseminação de informações falsas não é culpa exclusiva de contas automatizadas.

O estudo do MIT sobre a disseminação de notícias falsas acima referido confirma essa assertiva quando conclui que “o comportamento humano contribui mais para a disseminação diferencial de falsidades e verdades do que os robôs automatizados. Isso implica que as políticas de contenção de informações falsas também devem enfatizar intervenções comportamentais, como recompensar e incentivar a dissolução da disseminação de desinformação, em vez de se concentrar exclusivamente em cercear os bots. Entender como as notícias falsas se espalham é o primeiro passo para contê-las.”

Agora, se de um lado é verdade que as redes sociais sabem muito sobre nós, de outro, é importante observar que elas vieram ao mundo não como órgãos da imprensa livre, não como serviços de notícias e informações, não como mediadores entre cidadão e Estado, e nem sequer como mediadores entre cidadãos e cidadãos, mas como maneiras divertidas de socializar. A função das mídias sociais como canais de transmissão de informações, incluindo-se aqui o noticiário político, simplesmente aconteceu. Talvez esse papel possa ter sido previsto, uma vez que ocorreu paulatinamente, mas não foi com essa finalidade que elas foram concebidas ou aparentemente planejadas; inclusive porque, estão em constante mutação – uma regra fundamental do ambiente tecnológico.

Assim, preparadas para isso ou não, a realidade é que essas plataformas são as novas instituições intermediárias do fluxo informacional. As organizações políticas e os meios de comunicação tradicionais não ressurgirão para a era da Internet em nada parecido com suas encarnações anteriores. No entanto, diferentemente destas, as novas “empresas de informação” não foram criadas principalmente para servir valores democráticos e, a princípio, não têm como sua finalidade primeira a promoção de um eleitorado bem informado e de mentalidade cidadã.

Nesse sentido, as redes sociais e outras empresas de tecnologia estão em uma posição estranha: elas argumentam que sua contribuição para a desinformação é puramente casual, uma combinação infeliz de traços humanos e plataformas neutras de compartilhamento de informações. Com efeito, elas estão simultaneamente argumentando que seus algoritmos prezam pelos direitos de liberdade de expressão em primeiro plano, sendo suas plataformas ambientes de livre compartilhamento de ideias.

Então, pode-se considerar que as missões do jornalismo e das plataformas estão, de certa forma, em desacordo: enquanto o jornalismo tenta fornecer os fatos necessários, mas às vezes desconfortáveis, bem como o contexto necessário para dar sentido a eles e manter o cidadão bem informado, as redes sociais visam fornecer informações desejadas e divertidas para manter seus usuários felizes e interessados, captando o máximo de atenção, pelo maior tempo possível.

Não está claro, portanto, se existe uma maneira de vincular essas missões aparentemente separadas, e se os novos distribuidores de conteúdo estão preparados para assumir o papel de provedores de informação do século XXI. Nasce então dois questionamentos importantes: como compatibilizar os interesses jornalísticos e os interesses das plataformas digitais, se, pelo menos à primeira vista, eles são conflitantes? E, como podemos criar um ecossistema de informação que valoriza e promove a verdade?

De toda forma, se a rede de páginas e perfis retirados do ar, de fato, se utilizava de contas falsas para potencializar a desinformação – o que viola as políticas de autenticidade plataforma -, parece que o Facebook começou a limpar a casa para as eleições de 2018 atacando o uso malicioso de contas automatizadas, uma sofisticada e lucrativa indústria de “likes” e seguidores.

———————————————————-

BERNARDO ARAUJO – Advogado. Mestrando e Bacharel em Direito pela Universidade do Estado do Rio de Janeiro (UERJ).

Redação Painel Político

Painel Político, principal fonte de informações políticas de Rondônia. Com noticiário completo sobre economia, variedades e cultura.

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

This site uses Akismet to reduce spam. Learn how your comment data is processed.