O que as plataformas (não) fizeram para combater a desinformação

Foto: Foto: Pixabay CC0

Pesquisa lançada pelo Intervozes conclui que medidas são insuficientes e reforçam o poder das plataformas digitais

Por por Bia Barbosa, Helena Martins e Jonas Valente em Le Monde Diplomatique

O problema da desinformação está no centro do debate político há pelo menos quatro anos, desde que Donald Trump chegou ao poder nos Estados Unidos, valendo-se de uma campanha permeada por fake news e estratégias de segmentação de conteúdos para públicos mapeados a partir do uso ilegal de seus dados pessoais. No Brasil, os impactos dessa estratégia foram sentidos nas eleições de 2018, que levou Jair Bolsonaro à presidência, impulsionado por disparos de mensagens em massa e mentiras. Apesar dos escândalos e cobranças de ações por parte das plataformas digitais que sustentam as principais redes sociais, as medidas tomadas por elas têm sido insuficientes para enfrentar concretamente o problema.

A conclusão é da pesquisa Fake news:  como as plataformas enfrentam a desinformação, cujo sumário executivo (https://intervozes.org.br/publicacoes/fake-news-como-as-plataformas-enfrentam-a-desinformacao/) foi lançado nesta semana pelo Intervozes. No estudo, mapeamos e analisamos as ações das principais plataformas de redes sociais em operação no Brasil – Facebook, Instagram, WhatsApp, YouTube e Twitter – a partir de 2018, quando o fenômeno já era considerado um problema em âmbito mundial, até meados de 2020, alcançando, portanto, também as medidas justificadas pelo contexto da pandemia de Covid-19, tendo em vista a ampla circulação de desinformação sobre a doença e possíveis tratamentos.

Questionamos qual a abordagem da desinformação pelas plataformas; se e como é feita a moderação de conteúdo; se há promoção de informações e transparência; e quais medidas correlatas interferem na circulação da desinformação, ainda que não sejam apresentadas como relacionadas diretamente a ela. Como referências para a avaliação, foram estudadas recomendações expressas em regras existentes em diferentes países sobre desinformação, em documentos[1] desenvolvidos por autoridades internacionais e especialistas em direitos humanos, como a Comissão Europeia e as Relatorias para Liberdade de Expressão da ONU e da OEA, bem como propostas já elaboradas e apresentadas pelo Intervozes.[2]

O estudo conclui que Facebook, Instagram, WhatsApp, YouTube e Twitter não apresentam política e processos estruturados sobre o problema da desinformação e desenvolvem ações pontuais e reativas no combate ao fenômeno. Os limites da abordagem são nítidos, a começar pela definição da desinformação. Nenhuma das empresas relatou trabalhar com um conceito unificado. Em políticas e comunicados, fazem menções ao termo além de outros correlatos, como notícias falsas e informações enganosas. Em que pese a polissemia do conceito e o debate intenso tanto na sociedade quanto em círculos acadêmicos sobre ele, a explicitação seria importante para dar transparência e deixar nítido qual tipo de conteúdo pode ser impactado pelas medidas de análise, sinalização ou sanções, que são algumas das adotadas.

Para piorar a situação, nenhuma das empresas conta com uma estrutura específica para abordar a questão da desinformação, o que pode dificultar a coordenação de iniciativas no âmbito de cada corporação. Num contexto de crescimento de decisões automatizadas pelas plataformas, não ficaram claros nas explicações dadas a essa pesquisa, nem mesmo nas entrevistas concedidas por seus representantes, os critérios de uso de pessoas naturais ou de algoritmos na análise e decisões sobre medidas de moderações de conteúdo. A ausência de abordagem unificada e de organização interna não ameniza o problema, ao contrário. Abre margem para outros, como decisões unilaterais e pouco claras, que acabam reforçando a desigualdade de saber e poder entre as corporações e os usuários.

Em relação à moderação de conteúdo desinformativo, a verificação de conteúdos, principalmente por agências externas, é prática presente em boa parte das plataformas. Quando ocorrem, as checagens são realizadas conforme categorizações criadas pelas próprias empresas, diretriz necessária para evitar tratamentos diferentes por cada organização checadora. Mesmo assim, naturalmente a complexidade de analisar os “tons de cinza” entre um e outro extremo enseja riscos de avaliações questionáveis, razão pela qual a verificação deveria contar com mecanismos de devido processo efetivos para a mitigação de abusos e erros, o que em geral não ocorre.

Os conteúdos verificados são “marcados” (flagged) de diferentes formas por cada plataforma que realiza esse tipo de ação. Ainda que a eficácia do mecanismo seja questionável e que haja risco do alerta chamar atenção para o conteúdo, parece-nos uma ferramenta necessária para que o usuário saiba de possíveis problemas no conteúdo. Mas outras políticas associadas a essa, como ações de educação para a mídia, poderiam gerar mais leitura crítica e evitar a propagação da desinformação.

A prática de moderação abrange também anúncios e conteúdos impulsionados. Nesses casos, há restrições a conteúdos já considerados desinformativos. A extensão das medidas sobre desinformação aos anúncios é fundamental, porque aí reside a dimensão econômica da produção e difusão de notícias falsas, um negócio que é explorado pelas “fábricas de conteúdos enganosos” e também pelas próprias plataformas, que se beneficiam com a cobrança de impulsionamentos.

Durante a maior parte do período considerado na pesquisa, as plataformas resistiram em remover conteúdos desinformativos como ocorre em relação a outros tipos de conteúdo (violento, danoso etc.), sempre a partir do que é unilateralmente definido em suas diretrizes. Mas essa postura começou a mudar no contexto da pandemia do novo coronavírus, com a profusão de desinformação sobre a doença e sobre “formas milagrosas” de cura. Os riscos graves à saúde da população pressionaram as corporações a responderem de forma mais ágil e dura. Nesse contexto, a admissão de situações excepcionais de retirada de postagens em casos de risco evidente de danos graves é avaliada pelo Intervozes como razoável, desde que conectada a regras de devido processo que permitam a contestação, a avaliação dos recursos por pessoas naturais e a reparação em caso de erro na moderação aplicada. No entanto, esses condicionantes não são garantidos em nenhuma das plataformas analisadas.

A redução do alcance, providência mais presente em casos de desinformação, acaba assumindo quase uma condição de exclusão e aparece como medida de alto impacto sobre os conteúdos, mas também não tem sua eficiência comprovada. Estudos mencionados na pesquisa apontam que ações como a limitação no número de encaminhamentos no WhatsApp reduzem a velocidade da propagação de desinformações, mas a limitação do alcance não impede que tais conteúdos desinformativos sigam circulando. Para mudar esse quadro, uma medida urgente é o aprofundamento das investigações sobre a produção da desinformação, a fim de que possam incidir sobre a operação de grupos profissionais que usam as plataformas com sistemas que permitem burlar as limitações que acabam atingindo sobretudo os usuários comuns.

Quanto à promoção de informações e transparência, parte das plataformas analisadas disponibiliza informações adicionais para os usuários, no caso de conteúdos verificados. Exemplo disso é a exibição de artigos das próprias agências de checagem com as informações apuradas sobre determinado assunto. Outro é a oferta de informações “de contexto” ou de “fontes confiáveis”. Conteúdos de veículos jornalísticos e oficiais podem também ser fornecidos. No já mencionado contexto da pandemia, foram implantados diversos mecanismos para estimular o acesso a informações oficiais sobre o tema, o que tem sido feito especialmente em parceria com a Organização Mundial da Saúde e autoridades nacionais de saúde.

Quando observadas as políticas de informação sobre como cada agente lida com conteúdos desinformativos, chama atenção a baixa transparência das plataformas. As medidas existentes não são apresentadas de forma organizada e boa parte do trabalho da presente pesquisa foi exatamente a busca e a organização de informações dispersas em notícias nos sites oficiais e em espaços de “ajuda” ou FAQ de cada uma das empresas. Essa lógica acaba gerando empecilhos para que a comunicação com os usuários sobre o tema seja efetiva, o que poderia ser amenizado por meio de notificações e outras formas de contato direto com quem acessa as redes.

O elemento mais problemático em termos de transparência talvez seja a ausência de balanço das ações propagandeadas. Mais uma vez, as informações são escassas e dispersas, de maneira que a aferição da concretude dos resultados fica restrita às alegações das empresas, aproximando-se mais de promessas não comprováveis. Não há também avaliação da efetividade do que tem sido implementado nem devido processo, mecanismo que poderia viabilizar que os usuários pudessem se defender em processos de moderação de conteúdo ou em eventuais sanções sobre seus posts ou contas aplicadas pelas plataformas.

Após pormenorizar e analisar cada medida tomada ao longo de mais de dois anos, concluímos que as ações ainda carecem de organização, robustez, transparência e avaliação. As medidas adotadas pelas plataformas digitais também não cumprem as recomendações dos órgãos de direitos humanos. Enquanto estes cobram ações das plataformas e o engajamento delas na busca de soluções, a postura que as empresas adotam é, como já citado, de tangenciar o problema ou mesmo omiti-lo. Recomendações como a da União Europeia ressaltam a autorregulação, mas sempre pontuam a necessidade de participação de diversas instituições nesse processo, ao passo que o que verificamos foram medidas pautadas pelas e para as plataformas.

O resultado problemático pode ser visto no cotidiano, onde são frequentes os casos de desinformação. Mesmo nas eleições municipais deste ano, todas as instituições brasileiras, inclusive o TSE, estão deixando nas mãos das plataformas digitais o enfrentamento concreto à desinformação. O público, mesmo o especializado, não sabe como essas medidas estão sendo adotadas e se estão trazendo resultados positivos, o que mostra que aprendemos e fizemos pouco ao longo dos últimos dois anos (não custa lembrar que até os processos que envolvem disparo em massa da campanha de Bolsonaro sequer foram julgados até aqui). Por fim, a necessidade de transparência e devido processo é apontada em todos os documentos internacionais analisados pela pesquisa como centrais, ao passo que, à exceção da biblioteca de anúncios do Facebook nestas eleições, pouco tem sido feito.

Não se trata apenas de má vontade das plataformas, mas da economia política que as envolve. A internet que temos hoje é marcada pela presença de monopólios digitais que operam com o objetivo de capturar a atenção dos usuários, coletar e tratar dados pessoais usados, posteriormente, para a construção de perfis e para o direcionamento de mensagens, a exemplo de publicidade ou propaganda política. Esse modelo de negócios favorece a ocorrência da desinformação que, embora não seja inaugurada com a internet, sendo visível também na história dos meios de comunicação tradicionais, como rádio e TV, torna-se mais constante, abrangente, penetrante e de rápida circulação devido às formas de produção, circulação, mediação algorítmica e acesso à informação características das plataformas digitais.

Nosso dilema é complexo, mas há o que ser feito a curto prazo, como: adoção de uma definição clara de desinformação, de acordo com os documentos dos organismos de direitos humanos sobre o tema; reunião das medidas sobre desinformação em uma política específica e de fácil acesso; ampliação da comunicação com a sociedade sobre o tema, utilizando, entre outros mecanismos, notificações diretas para usuários; inclusão de medidas contra desinformação em relatório de transparência, que devem ser frequentes e acessíveis; ampliar, aliás, a transparência, inclusive em relação aos algoritmos que organizam a disposição do que é e do que não é visto pelos usuários das redes; abertura de dados para pesquisadores; facilitação do acesso a dados em investigações e apurações em casos de desinformação relacionada a algum ilícito; garantia de devido processo.

A solução passa, ademais, por cobrar mudanças no modelo de negócios adotado pelas plataformas. O problema da desinformação precisa ser efetivamente reconhecido, comunicado e enfrentado pelas plataformas, o que passa pela revisão da estrutura e do modelo de negócios delas, sob pena de seguirem oferecendo remédios incapazes de interromper uma forma de comunicação que hoje se converteu em um dos principais desafios às democracias em todo o mundo.

Bia Barbosa é jornalista, especialista em direitos humanos pela USP, mestra em Gestão e Políticas Públicas pela FGV-SP e integrante do Intervozes.

Helena Martins é doutora em Comunicação pela UnB, professora da UFC e integrante do Intervozes.

Jonas Valente é doutor em Sociologia pela UnB, professor da mesma universidade e integrante do Intervozes.

[1]     O estudo detalhou os seguintes documentos: Declaração conjunta sobre a Liberdade de Expressão e Notícias Falsas, Desinformação e Propaganda (ONU, OEA, OSCE e CADHP); Uma abordagem multidimensional à desinformação – Relatório do Grupo de Alto Nível independente sobre notícias falsas e desinformação online (Grupo de Alto Nível independente sobre notícias falsas e desinformação online – HLEG, na sigla em inglês); Combater a desinformação em linha: uma estratégia europeia (Comissão Europeia); Informe do Relator Especial sobre a promoção e proteção do direito à liberdade de opinião e de expressão (ONU); Recomendação N° 4 de 2018 (CNDH); Declaração Conjunta sobre Liberdade de Expressão e Eleições na Era Digital (ONU, OSCE e OEA).

[2]     Entre as referências do Intervozes, estão o livro “Desinformação: crise política e saídas democráticas para as fake news” (Intervozes, 2020) e o documento “10 maneiras de enfrentar a desinformação”.

 

 

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.