Combate a fake news requer critérios democraticamente legítimos
Plataformas de mídia social acumulam poder muito grande sobre a liberdade de expressão e a censura feita ao presidente ilustra isso
Já é assinante? Faça seu login
Continue lendo com acesso ilimitado.
Aproveite esta oferta especial:
Oferta Exclusiva
6 meses por R$ 1,90/mês
SOMENTE ESSA SEMANA
ASSINE A FOLHACancele quando quiser
Notícias no momento em que acontecem, newsletters exclusivas e mais de 200 colunas e blogs.
Apoie o jornalismo profissional.
A remoção de post do presidente Jair Bolsonaro por incentivar o fim do distanciamento social é o mais importante capítulo brasileiro da polêmica sobre o conteúdo e controle da disseminação online de informações sobre coronavírus. E deve acelerar uma mudança necessária nas preocupações da sociedade sobre os limites da liberdade de expressão na internet.
Ao menos no Brasil, a remoção talvez seja um marco entre duas fases. Antes o foco de todos era em manifestações ilegais que as redes sociais deixavam de remover. Depois, poderá ser em manifestações que a lei não proíbe, mas que as plataformas censuram mesmo assim. Por que essa discussão é bem-vinda? Quais são os principais desafios?
A primeira fase foi guiada pelo medo: na internet qualquer um publica o que deseja, há muitas manifestações criminosas e é complexo remover tudo. Essa é uma reação compreensível diante de uma mudança radical nas decisões sobre fluxo de informação para grandes audiências.
Manifestar-se na rua é um elemento importante da democracia, mas qualquer mensagem só ganha tração quando se insere na mídia de grande alcance —veículos privados. Nada é publicado em um jornal ou canal de televisão sem que um pequeno número de pessoas no controle tome uma decisão proativa de veicular aquela manifestação. Sempre foi um sistema opt-in.
Com sua popularização, contudo, a internet tornou-se o principal foro disponível para as pessoas publicarem sua opinião. A tecnologia permite publicar tudo, exceto quando proativamente a empresa que controla a plataforma —servidor de armazenamento, site de blogs, rede social— toma decisões individuais sobre não publicar ou excluir. É um sistema opt-out.
A consequência direta desse novo modelo viabilizado pela internet é um aumento brutal tanto na quantidade de publicações, quanto na de pessoas que têm a possibilidade de publicar mediante sua própria decisão.
Isso gerou o medo do excesso incontrolável, já que a sociedade sempre dispôs de sistemas para filtrar ilegalidades em plataformas privadas de mídia de massa opt-in, mas nenhum deles foi pensado para resolver o problema em plataformas opt-out. É inviável para o Judiciário em qualquer país avaliar individualmente os milhões de posts que circulam pelas redes sociais diariamente.
Nos Estados Unidos, Europa, Brasil e outros lugares a lei responsabilizou plataformas que não efetivassem remoções e deu imunidade para essas empresas privadas quando eventualmente cometessem censuras em excesso.
Na linha desse medo, quanto mais fake news sobre coronavírus Twitter e Facebook removerem, melhor. Porém, assim como com discurso de ódio, assédio e outras manifestações, há múltiplos conceitos do que seja fake news e pessoas diferentes discordam sobre a aplicação de um mesmo conceito em relação a um mesmo caso.
Por isso o medo deve dar lugar agora à preocupação com o procedimento mediante o qual se decide o que é censurado ou não nas redes sociais. A margem de erro restringindo mais ou menos manifestações do que o devido é algo inerente a qualquer sistema, o problema é quando as empresas são punidas apenas por errar para um dos dois lados.
Além disso, não existem no Brasil obrigações de transparência sobre a quantidade de decisões que elas tomam sobre remoção de posts. Não temos sequer as ferramentas para dimensionar o problema.
É por aí que precisamos começar. Diferentemente do Marco Civil da Internet, a lei alemã de 2017 sobre o tema criou obrigações de transparência para as plataformas, exigindo que publiquem relatórios periódicos com números sobre requisições de remoção de posts feitas por usuários e aquelas efetivadas pela empresa.
Sabendo que o post sobre coronavírus de Bolsonaro foi removido, a sociedade pode discutir o mérito dessa restrição. Mas quais e quantos outros posts relacionados à pandemia foram removidos? Como saber se realmente se tratava de fake news? Como saber os fundamentos da remoção?
Em 2018 um grupo de instituições sem fins lucrativos e acadêmicos estabeleceu os princípios de Santa Clara, um conjunto de obrigações mínimas que as redes sociais deveriam cumprir sobre a remoção de posts.
É indispensável que forneçam estatísticas gerais para o público, bem como os fundamentos da decisão específica para a pessoa censurada. Devem também garantir que essa pessoa possa acionar um sistema interno de revisão dessa decisão, o que é especialmente pertinente quanto mais decisões de remoção são feitas ou provocadas por máquinas.
As plataformas de mídia social não podem continuar centralizando a decisão sobre a circulação de informações e opiniões entre a maioria da população do Brasil e do mundo sem qualquer “accountability”.
Essas empresas acumulam poder muito grande sobre a liberdade de expressão nas democracias contemporâneas e a censura feita ao presidente da República ilustra isso —independentemente de o leitor concordar ou discordar com o mérito do post específico. Tão importante quanto combater as fake news é garantir que isso seja feito segundo critérios democraticamente legítimos.
Receba notícias da Folha
Cadastre-se e escolha quais newsletters gostaria de receber
Ativar newsletters