No mundo atual, a percepção das dificuldades não pode mais se dissociar do remanejamento dos quadros funcionais.
Pensando mais a longo prazo, a percepção das dificuldades possibilita uma melhor visão global dos métodos utilizados na avaliação de resultados.

pensamento do dia

Assim mesmo, a complexidade dos estudos efetuados ainda não demonstrou convincentemente que vai participar na mudança dos métodos utilizados na avaliação de resultados.

A Meta agora é outra: impactos no Marco Civil da Internet e nas fake news

Spread the love

A Meta – gigante controladora de Facebook, Instagram, WhatsApp e Threads – anunciou nesta terça-feira (7) o encerramento de seu programa de fact-checking nos Estados Unidos.

Embora a decisão ainda não tenha implicações diretas sobre o Brasil, o impacto desta medida não pode ser subestimado, dado o papel estratégico das plataformas digitais no cenário político global e, particularmente, no contexto brasileiro. 

Assine a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas no seu email

A empresa, ao se afastar da checagem de fatos, não apenas coloca em questão os seus próprios mecanismos de moderação de conteúdo, como também sinaliza uma questão crucial para o ordenamento jurídico nacional: a necessidade de uma revisão urgente da interpretação do artigo 19 do Marco Civil da Internet e dos avanços na tramitação do PL 2630/2020, conhecido como PL das Fake News.

A decisão da Meta ocorre em um momento de aproximação da companhia com a política americana, especialmente após a eleição de Donald Trump, histórico crítico da imprensa e das iniciativas de verificação de fatos. A Meta justificou sua decisão afirmando que, ao longo dos anos, o programa de checagem de fatos se tornou uma “ferramenta de censura” e que, nas palavras de Mark Zuckerberg, CEO da empresa, é “hora de voltar às nossas raízes em relação à liberdade de expressão[1]

Esse movimento foi ainda mais marcante com a remoção de cláusulas que proibiam discursos considerados sexistas e misóginos, e a introdução de novos parâmetros que permitem, por exemplo, discursos antitrans e alegações de anormalidades baseadas em gênero ou orientação sexual. Isso reforça um discurso de ampliação da liberdade de expressão, mas, ao mesmo tempo, reabre uma importante discussão sobre a regulação do discurso online e a responsabilidade das plataformas.

A decisão da Meta não está isolada. Ela se insere em um contexto mais amplo de crescente polarização política, principalmente nos Estados Unidos e no Brasil, e na crescente influência das redes sociais na formação de opinião pública. No Brasil, a popularização do WhatsApp nas campanhas políticas e sua centralidade nas eleições de 2018 já evidenciaram os riscos do uso inadequado dessas plataformas para disseminação de informações falsas ou manipuladas. 

A questão, então, é como garantir a liberdade de expressão sem abrir brechas para a proliferação de discursos de ódio, fake news e a manipulação da opinião pública.

Sendo o WhatsApp a plataforma mais utilizada no Brasil, com mais de 120 milhões de usuários, a circulação de notícias falsas, especialmente em períodos eleitorais, tornou-se uma preocupação crescente. Estudo realizado por Rezende et al. durante a campanha presidencial de 2018 revelou que imagens contendo desinformação foram compartilhadas com uma frequência oito vezes maior do que outras imagens verificadas como verdadeiras[2].

Essa realidade coloca o Brasil em uma posição ainda mais vulnerável quando o assunto é o combate à desinformação. Claire Wardle, especialista no estudo da desinformação, afirmou que o Brasil é particularmente suscetível à disseminação de fake news devido à extrema polarização política e à intensa utilização das redes sociais para a construção de narrativas políticas[3]. Nesse cenário, a atuação das plataformas e o papel dos fact-checkers torna-se ainda mais relevante. 

No entanto, com a Meta abandonando a checagem de fatos, resta a dúvida: quem será responsável por garantir a veracidade das informações circulando em um ambiente digital tão complexo?

Nesse contexto, a regulação da internet no Brasil passou a ser um tema central, especialmente com a tramitação do PL 2630, que visa garantir a autenticidade das informações circulando nas redes sociais e em aplicativos de mensagens privadas, como o WhatsApp.

O projeto busca, entre outras coisas, estabelecer regras claras para a moderação de conteúdos, responsabilizando plataformas por não impedir a disseminação de desinformação. No entanto, sua aprovação ainda enfrenta desafios significativos no Congresso, e a definição de como as plataformas devem lidar com o conteúdo nocivo continua a ser uma questão controversa.

Ao mesmo tempo, o Supremo Tribunal Federal (STF) se vê diante de um dilema em relação à interpretação do artigo 19 do Marco Civil da Internet. Esse dispositivo estabelece que os provedores de aplicação não devem ser responsabilizados por conteúdos gerados por terceiros, salvo em caso de ordem judicial. 

A reflexão sobre a responsabilidade das plataformas digitais e a moderação de conteúdo no Brasil está em um ponto de inflexão. O Marco Civil da Internet, em seu artigo 19, busca proteger os direitos fundamentais, como a liberdade de expressão e o acesso à informação.

Contudo, o modelo atual, que depende de uma ordem judicial para a remoção de conteúdos, entra em choque com a dinâmica acelerada das redes sociais, onde a disseminação de informações ocorre em tempo real. O desafio está em encontrar um equilíbrio entre a proteção contra abusos e a garantia dos direitos constitucionais. 

O STF se encontra, assim, diante de uma verdadeira “escolha de Sofia”. A corte terá de decidir entre manter um modelo de responsabilização que privilegia a liberdade de expressão, mas que pode ser ineficaz no combate à desinformação, ou adotar uma postura mais rigorosa que garanta a proteção contra abusos, mas que corre o risco de engessar o debate público nas redes sociais.

A decisão a ser tomada pelos ministros do Supremo deve, portanto, ser pautada pela necessidade de encontrar um remédio adequado para o atual contexto brasileiro, mas sem que esse remédio se transforme, ao final, em um veneno, restringindo o debate democrático.

É nesse cenário que a tramitação do PL das Fake News assume um papel ainda mais crucial. A lei, ao regulamentar as plataformas e estabelecer novas obrigações para as empresas de redes sociais, poderá fornecer um conjunto de regras claras que auxiliem tanto as plataformas quanto os usuários na construção de um ambiente digital mais seguro e transparente.

A aprovação dessa lei é urgente, especialmente em vista das eleições presidenciais de 2026, um processo eleitoral em que as redes sociais e o WhatsApp continuarão a ter um papel central na formação da opinião pública.

Assim, o Brasil se encontra diante de um cenário complexo e desafiador, em que a regulação da internet e a proteção contra a desinformação precisam ser tratadas com cautela, para que se evite um excesso de controle sobre as plataformas que possa restringir os direitos fundamentais, mas também sem negligenciar os perigos da propagação de fake news que podem comprometer a integridade do processo democrático.

O STF e o legislador devem agir com a responsabilidade de quem está diante de uma escolha difícil, mas essencial para o futuro da democracia brasileira.


[1] Vídeo de pronunciamento do CEO disponível em https://www.instagram.com/reel/DEhf2uTJUs0/?igsh=aDJwcWE2OXZmbzZj.

[2] Resende, Gustavo, et al. “(Mis)Information Dissemination in WhatsApp: Gathering, Analyzing and Countermeasures.”The World Wide Web Conference. 2019.

[3] Disponível em https://firstdraftnews.org/long-form-article/understanding-information-disorder/.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *