CONFIRA ESSAS EMPRESAS
SEGURO PARA MOTORISTA DE APP
COMECE HOJE MESMO
CLASSIFICADOS
ABRIR O CATÁLOGO DE MÁQUINAS
TUDO SOBRE SEGURO DE VIDAS
ALUGUEL TEMPORADA GUARAPARI PRAIA DO MORRO ES
O IMÓVEL É UMA COBERTURA NA PRAIA DO MORRO ES LINK A BAIXO VALOR DA DIÁRIA 500R$
NÚMERO DE DIÁRIAS MINIMO 3
QUERO SABER + / CONTATO DO IMÓVEL
QUERO SABER SOBRE O CAVALO COMO COMPRAR
O melhor da web
GANHE DINHEIRO NO AIRBNB
DRA LARISSA
CONFIRA O CANAL
CONFERIR PERFIL NO LinkedIn
CONFERIR
Redes sociais atualmente exercem um papel central na forma que nos comunicamos e nos informamos. Há menos de duas décadas, as notícias eram majoritariamente veiculadas por meio de grandes empresas de mídia, com uma orientação editorial clara, e elaboradas por seus funcionários. Hoje, as plataformas disponibilizam conteúdo produzido por usuários – que não são seus empregados – e com muito pouco, e as vezes nenhum, controle da informação difundida. A forma de produção das notícias afeta diretamente o seu conteúdo e veridicidade, o que resulta em profundas transformações no debate sobre os limites da liberdade de expressão e a suposta liberdade de divulgar desinformação.
A exponencial expansão de notícias fraudulentas após a pandemia do COVID-19 e da campanha presidencial americana de 2020 levou a Suprema Corte dos Estados Unidos a julgar um dos casos recentes mais emblemáticos relativos à Primeira Emenda da Constituição Americana, justamente sobre o equilíbrio entre a liberdade de expressão e a necessidade coletiva de divulgação de informações confiáveis. O debate do caso Murthy v. Missouri1 envolve os limites da administração pública em interferir nas políticas de moderação de conteúdos das redes sociais, tais como Facebook, X e Youtube, e a definição de se essa intromissão viola a Primeira Emenda.
Assine gratuitamente a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas diariamente no seu email
O caso decorre de uma ação originalmente movida pelos Estados de Missouri e Louisiana, e cinco usuários de redes sociais, contra agências do governo federal dos Estados Unidos (Vivek Murthy ocupa o cargo de Cirurgião Geral dos Estados Unidos no Governo Biden, e deu nome ao caso pelo lado do governo), sob a alegação de suposta violação da liberdade de expressão, por encorajarem plataformas de redes sociais a removerem conteúdo desinformativo. A ação continha uma acusação de viés político-partidário, arguindo que o discurso suprimido era voltado a uma linha mais conservadora (e associada ao partido republicano).
Nos Estados Unidos, a cláusula da liberdade de expressão (free speech clause) é aplicável apenas a atos estatais, portanto, geralmente, não se impõe às empresas privadas. Há, excepcionalmente, situações em que condutas privadas podem ser qualificadas como ações estatais2, como por exemplo quando a administração pública determina a conduta de particulares. Ademais, o Communications Decency Act (CDA) de 1996 resguardada as plataformas de responsabilidade civil por publicações feitas por usuários3. Por outro lado, estas empresas têm o direito de regular conteúdos postados, e um interesse próprio em fazer isso, não apenas para prevenir danos, mas também como forma de manter a sua credibilidade.
Em sua defesa em Murthy, o governo federal defendeu que apenas requereu – e não demandou – que as plataformas removessem conteúdo de desinformação. O caso continha, portanto, duas perguntas principais. A primeira é se o fato de o governo requisitar a remoção de determinados conteúdos poderia tornar os atos das plataformas atos estatais sob o prisma legal; e a segunda é se, uma vez configurados como atos estatais, eles violariam a liberdade de expressão dos usuários das redes sociais.
O juiz de piso –Terry A. Doughty – proibiu que agências federais contactassem as plataformas de rede sociais para bloquear conteúdo, com exceção de conteúdo ilícito. No julgamento da apelação, a Corte de Apelações do Quinto Circuito (Fifth Circuit Court of Appeals) entendeu haver coerção do governo federal, pois este estaria envolvido no processo decisório de moderação de conteúdo das plataformas, proibindo que as agências influenciassem as políticas de moderação.
Porém, o entendimento foi reformado pela Suprema Corte dos Estados Unidos. Por 6 votos a 3, a Corte assentou que os autores não indicaram fatos suficientes que sustentassem a ação: nas palavras da Justice Amy Coney Barret, autora do voto condutor, apresentaram apenas conjecturas (“no more than conjectures”), não havendo caso ou controvérsia, nos termos do artigo III da Constituição Americana, para justificar o conhecimento ou o provimento da ação.
A Justice Barrett concluiu que a ação não teria condições procedimentais de prosseguir por, pelo menos, três motivos: em primeiro lugar, observou que as redes sociais há algum tempo têm se preocupado com a divulgação de notícias falsas ou enganosas, e neste sentindo não há como se comprovar que a regulação e remoção de conteúdo decorre da pressão do governo federal. Em segundo lugar, a Justice observou que as solicitações feitas pelo governo federal diminuíram após 2022, quando a pandemia pareceu estar sob controle. Fundamentou, assim, que os requerentes não comprovaram risco iminente e substancial de dano causado pelas agências federais. Em terceiro lugar, arguiu e que todos os fundamentos e provas apresentados dizem respeito à política de moderação das plataformas, e não de ações do governo federal, de modo que uma ordem para fazer cessar o comportamento do governo federal dificilmente afetaria as decisões sobre remoção de conteúdo. Acompanharam o voto os Justices Roberts, Sotomayor, Kagan, Kavanaugh e Jackson.
A divergência formulada pelo Justice Samuel Alito, e acompanhada pelos Justices Clarence Thomas e Neil Gorsuch, entendeu pela inconstitucionalidade da ação estatal, principalmente por considerarem que o governo federal teria coagido as plataformas a censurar determinados conteúdos, e assim violar a liberdade de expressão dos usuários. A divergência também ressaltou o que o entendimento da maioria abre caminho para a governo federal americano controlar o que pessoas falam, escutam e pensam.
Tenha acesso ao JOTA PRO Poder, uma plataforma de monitoramento político com informações de bastidores que oferece mais transparência e previsibilidade para empresas. Conheça!
O resultado foi considerado uma vitória para o governo Biden, que investiu nas conversas e parcerias entre as plataformas e o governo para combater a desinformação4, e que saiu livre da acusação de usar a máquina estatal para silenciar vozes do partido de oposição. Embora a Suprema Corte tenha proferido uma decisão de cunho procedimental, a maioria acabou rejeitando a noção de que o governo poderia ser responsabilizado pelas decisões das plataformas de que conteúdo excluir – mantendo, assim, a regulação de conteúdo nas redes livre das limitações inerentes à tradicional jurisprudência protetiva à liberdade de expressão.
O caso demonstra mais uma faceta do difícil processo de adaptação da legislação, inclusive constitucional, à realidade de como a informação é produzida e regulada no século XXI. No centro desse processo de adaptação está o questionamento sobre o papel do Estado.
Por um lado, não há dúvidas de que a disseminação de informações falsas é um problema de interesse público, e que os impactos dessa prática são imensos, inclusive sob o prisma político. Por outro lado, a sistemática das redes sociais é complexa e imensa; de um ponto de vista estritamente operacional, nenhum Estado possui a capacidade de fiscalizar, no dia a dia, a produção de conteúdo que é postado nas plataformas. Mas tampouco é confortável a posição de ceder exclusivamente a empresas privadas o fundamental papel e o imenso poder de regular conteúdo.
Em jogo a opção entre a autorregulação, a cargo do próprio provedor, por meio de bloqueio, restrição ou remoção, por exemplo, e a corregulação, que pressupõe uma atuação do Estado, de forma direta ou por delegação. Os usos vão ser modulados de acordo com o contexto político-democrático de cada Estado, notadamente sob pena de configuração de manipulação, autoritarismo, uso político ou ideológico.
O equilíbrio vem sendo construído por meio de parcerias e regulamentação. A postura colaborativa do governo Biden também tem sido adotada no Brasil – embora, por uma série de motivos, o Judiciário tenha tomado a frente dessa política, e não o Executivo. Aqui, vale lembrar, está em discussão a constitucionalidade do art. 19 do Marco Civil da Internet (Lei n. 12.965/2014, que completou 10 anos em abril deste ano de 2024), que determina a necessidade de prévia e específica ordem judicial de exclusão de conteúdo para a responsabilização civil de provedor de internet, websites e gestores de aplicativos de redes sociais por danos decorrentes de atos ilícitos praticados por terceiros. Trata-se do Tema 987 de Repercussão Geral, que tem como leading case o Recurso Extraordinário 1037396, de relatoria do Ministro Dias Toffoli, em tramitação no Supremo Tribunal Federal (STF).
O outro lado da moeda, também ainda em processo de construção, está na linha mais coercitiva, que pode forçar as plataformas a regularem o conteúdo, sob pena de torná-las responsáveis pelo dano por ele causado. No Brasil, uma postura jurisprudencial intermediária nesse sentido foi inaugurada em agosto deste ano pelo Superior Tribunal de Justiça (STJ), ao assentar a possibilidade o próprio provedor controlar o conteúdo indevido em sua plataforma. O REsp 2.139.749-SP, de relatoria do Ministro Ricardo Villas Bôas Cueva, fixou a “faculdade reconhecida de as plataformas digitais estabelecerem normas para o uso do espaço que disponibilizam a terceiros, que podem incluir a capacidade de remover, suspender ou tornar indisponíveis conteúdos ou contas de usuários que violem essas normas”, como uma “atividade lícita de compliance interno da empresa, que estará sujeita à responsabilização por eventual retirada indevida que venha a causar prejuízo injustificado ao usuário”.
Nesse cenário de delineamento e experimentação, aguardemos os novos contornos sobre o tema no Brasil. Já em solo estadunidense, certamente teria sido um notável retrocesso que a Corte vedasse a realização de reuniões entre o governo e as plataformas. Mas a rejeição genérica da ideia de que o governo poderia, em determinados cenários, coagir a remoção de conteúdo também parece impedir o avanço de possíveis caminhos no combate à desinformação. Caminhos que precisam ser democráticos, transparentes, razoáveis e efetivos, sob pena de uma contradição interna. O papel do Estado nesse complexo cenário certamente merece ser discutido em novos capítulos.
________________________________________________________
1 Murthy v. Missouri, 603 U.S. ___ (2024) https://www.supremecourt.gov/opinions/23pdf/23-411_3dq3.pdf Acesso em 8/11/2024.
2 Ver Manhattan Cmty. Access Corp. v. Halleck, 139 S. Ct. 1921, 1928 (2019) ([A] private entity can qualify as a state actor in a few limited circumstances—including, for example, (i) when the private entity performs a traditional, exclusive public function . . . (ii) when the government compels the private entity to take a particular action . . . ; or (iii) when the government acts jointly with the private entity[.]).
3 Ver Reno v. American Civil Liberties Union, 521 U.S. 844 (1997).
4 HOWE, Amy. Justices side with Biden over government’s influence on social media content moderation. Disponível em: https://www.scotusblog.com/2024/06/justices-side-with-biden-over-governments-influence-on-social-media-content-moderation/, acesso em 19/11/2024.