Precisamos (continuar a) falar sobre regulação de conteúdo nas redes sociais

Spread the love

A Meta, gigante das techs dona de Facebook, Instagram e WhatsApp, está preocupada com o julgamento do STF sobre o Marco Civil da Internet. Na última quinta-feira (12), a empresa divulgou uma nota, afirmando que “nenhuma grande democracia no mundo jamais tentou implementar um regime de responsabilidade para plataformas digitais semelhante ao que foi sugerido até aqui no julgamento no STF[1].

O julgamento em referência trata de dois recursos extraordinários, apregoados em conjunto, os REs 1037396 e 1057258[2], em que o Supremo está analisando a constitucionalidade do artigo 19 do Marco Civil da Internet (Lei 12.965/2014)[3].

Assine a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas no seu email

O dispositivo exige ordem judicial prévia, determinando a exclusão de conteúdo, para a responsabilização civil de provedores da internet por danos decorrentes de atos ilícitos praticados por terceiros. Na mesa está a possibilidade de declaração de inconstitucionalidade do dispositivo, resultando tanto na ampliação da responsabilidade civil das plataformas por conteúdos de terceiros, quanto a possibilidade de remoção de material ofensivo, a pedido dos ofendidos, sem a necessidade de ordem judicial.

O regime de responsabilidade que preocupou a Meta foi desenhado nos votos dos respectivos relatores do REs, ministros Dias Toffoli e Luiz Fux, que apresentaram seus votos nas sessões das últimas semanas.

Para o ministro Toffoli, o modelo de responsabilidade previsto no art. 19 é inconstitucional pois tem se mostrado incapaz de oferecer proteção efetiva aos direitos fundamentais, além de não estar à altura dos “riscos sistêmicos” impostos pela falta de regulação da internet. A solução sugerida é retirada do próprio Marco Civil da Internet, que em seu artigo 21 estabelece que, nos casos de nudez e conteúdo sexual, as plataformas podem ser responsabilizadas subsidiariamente pelo dano causado se, após notificação do ofendido, deixar de promover “de forma diligente” a remoção do conteúdo.

O ministro Fux, votando como relator do segundo RE, também considerou inconstitucional o regime do art. 19, por criar espécie de “imunidade civil” às plataformas. Sua sugestão também foi na linha do ministro Toffoli, de que a obrigação das plataformas seria de remover o conteúdo tão logo notificadas, e uma apuração mais detalhada da lesividade do conteúdo ficaria para um segundo momento, invertendo a lógica atual: o conteúdo só poderia ser republicado com autorização judicial.

O voto do ministro Fux foi além, falando ainda do “monitoramento ativo” das plataformas, que seriam obrigadas a retirar do ar, independentemente de notificação, conteúdo que vincule discurso de ódio, racismo, pedofilia, incitação à violência e apologia da abolição violenta do Estado democrático de Direito e de golpe de Estado, sob pena de responsabilidade.

As propostas são uma reviravolta profunda do sistema de responsabilidade atualmente em vigor no Brasil. Mas seriam também, como sugere a Meta, a escolha de um caminho que nenhuma grande democracia do mundo escolheu trilhar até aqui?

Um breve olhar sobre o landscape mundial coloca em dúvida a veracidade, ou ao menos a proporcionalidade, dessa afirmação. O mundo democrático, ao que parece, está disposto a entrar em guerra com as plataformas digitais[4].

Países como Austrália[5], Inglaterra[6], Singapura[7] e Canadá[8] já contemplaram regulamentações duríssimas para a responsabilidade das plataformas, incluindo a possibilidade de penas de prisão e multas severas. Na Alemanha, a NetzDG determina que após a notificação inicial de um conteúdo suspeito, ele deve ser analisado e excluído em 24 horas[9].

A União Europeia já determinou, no julgamento do famoso caso Glawischnig-Piesczek v. Facebook Ireland Limited, que as plataformas podem ser obrigadas a remover conteúdo sem ordem judicial – como no caso de conteúdo similar ou equivalente a outros, que já tenham sido objeto de ordem[10].

Na mesma União Europeia, foram adotadas recomendações para que a retirada de conteúdo nocivo seja efetiva e imediata, impondo às plataformas obrigações de “monitoramento ativo” não muito diferentes da proposta no voto do ministro Fux[11].

Mas o fato de que há uma tendência mundial de intensificação da responsabilidade das plataformas digitais sobre o conteúdo gerado por seus usuários não significa que o Brasil não precise encontrar o seu próprio equilíbrio ao desenhar o framework jurídico para uma internet mais regulada.

Havia uma certa expectativa entre especialistas de que o Supremo trabalhasse ampliando as exceções do art. 19[12], reconhecendo que, em determinados temas, as plataformas devem ser proativas e retirar o conteúdo após a notificação. Mas o voto do ministro Toffoli transforma o procedimento para as duas exceções até então existentes (imagens íntimas e direitos autorais) em regra, tornando as plataformas responsáveis, em tese, por qualquer classe de conteúdo não removido após notificação.

Isso gera desafios imensos para a manutenção mínima da liberdade de expressão na internet, a começar pelos casos clássicos de críticas contra figuras políticas que, por sua própria natureza, são de interesse público, e estariam sujeitas à censura após simples notificação.

Também se especulava, antes do julgamento, que poderiam ser criadas categorias distintas entre as plataformas, que reconhecessem que gigantes como a Meta possuem capacidade tecnológica e operacional de fiscalização de conteúdo muito superiores às de empresas menores[13].

Um dos objetivos de impor maiores responsabilidades às big techs seria impedir que um novo sistema de responsabilização aniquilasse do mercado empresas incapazes de realizar filtros prévios do conteúdo produzido pelos usuários com a mesma eficácia das grandes plataformas[14]. Mas até o momento o Supremo, apesar dos discursos dentro e fora dos autos sobre o poder excessivo das gigantes da tecnologia digital[15], não deu nenhum sinal de estar atento a esse aspecto do novo regime que está sendo desenhado.

Nesse contexto, é difícil concluir se a preocupação expressa pela Meta, em nota pública – ecoando, em tese, as demais big techs – se justifica perante o que se viu, até o momento, no julgamento pelo STF. A declaração irrestrita de inconstitucionalidade do art. 19 pode, a primeira vista, parecer uma ampliação quase ilimitada da responsabilidade das techs.

É preciso ponderar, no entanto, que o Supremo continua integralmente focado nas consequências externas para as plataformas se falharem em coibir conteúdos nocivos, sem debater de que forma essa coibição vai acontecer.

Escrevendo nesta coluna sobre a regulação de conteúdo nas redes sociais em 2021[16] – motivada, à época, pela suspensão imediata pelo STF da MP 1.068/2021, editada pelo então presidente Jair Bolsonaro para estabelecer restrições à moderação de conteúdo realizada pelas plataformas – esta autora já alertava que a Nova Escola de regulação de conteúdo sugeria que os estados intervissem para melhorar os procedimentos de regulação que ocorrem dentro das plataformas[17].

A partir da percepção de que a maior parte das controvérsias envolvendo a liberdade de expressão na internet precisam ser resolvidas fora da estrutura tradicional da burocracia estatal, a Nova Escola indica que caberia aos Estados a coagir, através de leis, as plataformas a adaptar seus procedimentos internos a diretrizes constitucionais mínimas e objetivos de interesse público.

É nesse sentido o artigo do professor Jack Balkin, citado à época, que indica que uma técnica inteligente da Nova Escola é condicionar a imunidade das plataformas à implantação de garantias do devido processo legal e transparência nos procedimentos internos de regulação de discurso. Nada parecido está sendo discutido pelo STF[18].

Ao revés, o cenário que se desenha é um em que a maior vítima do novo regime será a liberdade de expressão, e não as plataformas, que agirão para se proteger da responsabilidade pelo conteúdo produzido pelos usuários aplicando critérios cada vez mais rígidos de censura: na dúvida, os conteúdos serão removidos, de modo a evitar futura responsabilização.

Ainda há tempo para refinar o debate no Supremo. Os julgamentos não serão encerrados neste ano, e na sociedade civil e na academia, o debate deve continuar. A Meta e as demais big techs podem e devem fazer parte dessa conversa. Mas parece claro que a complexidade do tema pede mais do que uma declaração de inconstitucionalidade, e que o ponto do equilíbrio se encontra em algum lugar entre a irresponsabilidade irrestrita e a responsabilidade absoluta. Num assunto de tamanha relevância, deve-se evitar novas oportunidades perdidas: precisamos continuar a falar sobre regulação de conteúdo nas redes sociais.


[1] Disponível em: https://www.poder360.com.br/poder-tech/meta-se-diz-preocupada-com-julgamento-do-marco-civil-da-internet/. Acesso em 12/12/2024.

[2] Temas 987 e 533 da Repercussão Geral. O Tema 987 dispõe sobre a “Discussão sobre a constitucionalidade do art. 19 da Lei n. 12.965/2014 (Marco Civil da Internet) que determina a necessidade de prévia e específica ordem judicial de exclusão de conteúdo para a responsabilização civil de provedor de internet, websites e gestores de aplicativos de redes sociais por danos decorrentes de atos ilícitos praticados por terceiros”; já o Tema 533 trata do “Dever de empresa hospedeira de sítio na internet fiscalizar o conteúdo publicado e de retirá-lo do ar quando considerado ofensivo, sem intervenção do Judiciário”.

[3] Art. 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.

[4] NBC News: “Foreign governments are fed up with social media — and threatening prison for tech employees”, disponível em: https://www.nbcnews.com/tech/tech-news/foreign-governments-are-fed-social-media-threatening-prison-tech-employees-n993841. Acesso em 12/12/2024.

[5] New York Times, “Australia Passes Law to Punish Social Media Companies for Violent Posts”. Disponível em: https://www.nytimes.com/2019/04/03/world/australia/social-media-law.html. Acesso em 12/12/2024.

[6] Gov.UK, “UK to introduce world first online safety laws”. Disponível em: https://www.gov.uk/government/news/uk-to-introduce-world-first-online-safety-laws. Acesso em: 12/12/2024.

[7] Reuters, “Facebook, rights groups hit out at Singapore’s fake news bill”. Disponível em: https://www.reuters.com/article/us-singapore-politics-fakenews/facebook-rights-groups-hit-out-at-singapores-fake-news-bill-idUSKCN1RD279/. Acesso em: 12/12/2024.

[8] The Globe and Mail, “Goodale turns up heat on social-media companies over hateful and violent content”. Disponível em: https://www.theglobeandmail.com/politics/article-goodale-turns-up-heat-on-social-media-companies-over-hateful-and/. Acesso em: 12/12/2024.

[9] VOX, “Fake news is bad. Attempts to ban it are worse”. Disponível em: https://www.vox.com/the-big-idea/2017/7/5/15906382/fake-news-free-speech-facebook-google. Acesso em 12/12/2024.

[10] ReedSmith, “Monitoring online content: the impact of Eva Glawischnig-Piesczek v Facebook Ireland Limited”. Disponível em: https://www.reedsmith.com/en/perspectives/2019/11/monitoring-online-content-the-impact-of-eva-glawischnig-piesczek-v-facebook. Acesso em 13/12/2024.

[11] Digital Strategy, “Illegal content on online platforms”. Disponível em: https://digital-strategy.ec.europa.eu/en/policies/illegal-content-online-platforms. Acesso em: 13/12/2024.

[12] JOTA, Sem Precedentes: “Artigo 19 do Marco Civil da Internet é inconstitucional. E aí?”. Disponível em: https://www.jota.info/opiniao-e-analise/colunas/sem-precedentes/artigo-19-do-marco-civil-da-internet-e-inconstitucional-e-ai. Acesso em 12/12/2024.

[13] Idem.

[14] EFF- Eletronic Frontier Foundation: “Platform Liability Trends Around the Globe: From Safe Harbors to Increased Responsibility”. Disponível em: https://www.eff.org/deeplinks/2022/05/platform-liability-trends-around-globe-safe-harbors-increased-responsibility. Acesso em 13/12/2024.

[15] Folha de S. Paulo, “Moraes diz que regulação das redes é necessária para volta da normalidade democrática”. Disponível em: https://www1.folha.uol.com.br/poder/2024/11/moraes-diz-que-regulacao-das-redes-e-necessaria-para-volta-da-normalidade-democratica.shtml. Acesso em 13/12/2024.

[16] Conjur, Observatório Constitucional: “Precisamos (continuar a) falar sobre regulação de conteúdo nas redes sociais”. Disponível em:  https://www.conjur.com.br/2021-out-02/observatorio-constitucional-precisamos-falar-regulacao-conteudo-redes-sociais/. Acesso em 12/12/2024.

[17] BALKIN, Jack M. Free Speech is a Triangle. Columbia Law Review, vol. 118, n. 7, 2018, p. 2012-2015.

[18] BALKIN, Jack M. How to Regulate (and Not Regulate) Social Media. Knight First Amendment Institute at Colombia University, 25/03/2020.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *