CONFIRA ESSAS EMPRESAS
SEGURO PARA MOTORISTA DE APP
COMECE HOJE MESMO
CLASSIFICADOS
ABRIR O CATÁLOGO DE MÁQUINAS
TUDO SOBRE SEGURO DE VIDAS
ALUGUEL TEMPORADA GUARAPARI PRAIA DO MORRO ES
O IMÓVEL É UMA COBERTURA NA PRAIA DO MORRO ES LINK A BAIXO VALOR DA DIÁRIA 500R$
NÚMERO DE DIÁRIAS MINIMO 3
QUERO SABER + / CONTATO DO IMÓVEL
QUERO SABER SOBRE O CAVALO COMO COMPRAR
O melhor da web
GANHE DINHEIRO NO AIRBNB
DRA LARISSA
CONFIRA O CANAL
CONFERIR PERFIL NO LinkedIn
CONFERIR
A decisão do ministro Alexandre de Moraes, do Supremo Tribunal Federal (STF), de incluir Elon Musk, proprietário da rede X (antigo Twitter), nas investigações das milícias digitais gerou grande repercussão – nas redes sociais, no Congresso Nacional e, obviamente, no Poder Judiciário.
Na Câmara dos Deputados, segundo o presidente da Casa, Arthur Lira (PP-AL), não há consenso para votar o PL 2630/2020, conhecido como PL das Fake News. Por esta razão, será criado um Grupo de Trabalho (GT) para a elaboração de um novo texto para regulação das redes sociais[1].
Enquanto isso, após questionamentos, o ministro Dias Toffoli informou que até junho deverá liberar para julgamento no STF os recursos que discutem a constitucionalidade do artigo 19 do Marco Civil da Internet[2]. Os debates sobre o dispositivo legal já se arrastam por alguns anos, havendo quem defenda a constitucionalidade deste artigo e quem entenda sua inconstitucionalidade.
Os ministros julgarão o assunto em plenário por meio de dois recursos extraordinários. O primeiro, RE 1057258 (tema 933), trata da moderação de conteúdo de fatos anteriores ao MCI, no qual uma professora processou o Google pois a empresa se recusou a apagar uma comunidade criada contra ela por alunos no Orkut (rede social que não existe mais, no entanto é filiada ao Google). Mesmo com a solicitação de exclusão por notificação extrajudicial, a plataforma não tomou nenhuma providência, restando-lhe apenas socorrer-se pelas vias judiciais.
Por sua vez, o RE 1037396 (tema 987) também discute a constitucionalidade do artigo 19 do MCI. No caso em questão, uma usuária processou o Facebook (que pertence ao grupo Meta) após a recusa da plataforma em deletar um perfil falso criado com seu nome para divulgar conteúdo ofensivo.
O que prevê o artigo 19 da Lei 12.965/2014?
O artigo 19, do Marco Civil da Internet (Lei 12.965/2014), prevê que os provedores de aplicações (ex: Facebook, Instagram, TikTok, dentre outros) só responderão civilmente por danos decorrentes de conteúdo gerado por terceiros quando descumprirem uma ordem judicial para a remoção do conteúdo (modelo conhecido por “judicial notice and takedown”). Isso significa que a responsabilidade dos provedores é condicionada ao cumprimento das ordens judiciais para remoção de conteúdo ilícito.
À época da promulgação da lei, o legislador buscou garantir o direito à liberdade de expressão e o impedimento à censura. Outrossim, os provedores não são obrigados a remover conteúdo com base em denúncias simples ou notificações extrajudiciais, exceto nos casos previstos no artigo 21. A decisão final sobre a licitude do conteúdo cabe ao Judiciário, a permitir que as plataformas operem de acordo com suas próprias regras.
Essa proteção ao provedor trazida pelo legislador – para muitos doutrinadores uma preocupação tardia – teve como fruto uma realidade provinda de outros países, só que aplicadas à década de 1990 e início dos anos 2000, já que a internet ainda estava em seu estágio inicial e não existiam players com a dominância que temos hoje.
É perante essa realidade, a fim de fomentar os novos serviços de informação e comunicação, que muitos países previam isenção ou um regime mais brando de responsabilidade civil para os provedores. Um exemplo notável é a Seção 230 da Communications Decency Act (CDA) de 1996, nos Estados Unidos, que reconheceu os provedores como plataformas neutras que não realizam moderação de conteúdo e, assim, não são responsáveis pelos danos decorrentes das postagens de seus usuários. Curiosamente, a revisão da Seção 230 tem sido objeto de debates nos EUA hoje.
A realidade atual
Agora, o motivo inicial de preocupação dos legisladores parece menos relevante. Os grandes provedores têm total autonomia para remover conteúdo, excluir perfis e sugerir o “melhor conteúdo” por meio de seus algoritmos, tudo isso amparado pelos termos de condições de uso.
Aqueles que defendem a inconstitucionalidade do artigo 19 do MCI argumentam que a lei entra em conflito com as normas de responsabilidade do Direito do Consumidor e prejudica a garantia constitucional de reparação civil por danos morais. Portanto, do ponto de vista de política pública, essa lei poderia desencorajar as plataformas de intensificarem a moderação de conteúdo e removerem publicações problemáticas.
Em suma, a ideia predominante é que, sem essa imunidade legal, as plataformas seriam mais incentivadas a coibir conteúdo prejudicial aos direitos fundamentais, como desinformação e discursos de ódio.
Para os defensores da constitucionalidade, argumenta-se que as características únicas da produção e disseminação de conteúdo na internet justificam um regime de responsabilidade civil diferenciado para provedores de aplicação, em comparação com o Direito do Consumidor. Eles afirmam que não há um prejuízo real para a garantia constitucional de reparação civil, uma vez que a responsabilização ainda é possível, desde que algumas salvaguardas sejam cumpridas.
Além disso, destacam que o modelo de responsabilização do artigo 19 promove a garantia constitucional da livre expressão, desencorajando a prática de censura privada excessiva pelos provedores. Nesse sentido, a responsabilidade incentivaria os provedores a removerem mais conteúdo para evitar o dever de indenizar, resultando em menos precauções na proteção do conteúdo considerado lícito – conhecido como “chilling effect”.
Não obstante a complexidade do tema, o equilíbrio é a melhor solução, uma vez que não seria interessante para os usuários que a centralização das decisões esteja nas mãos das plataformas; por outro lado, cabe ao Estado a proteção dos direitos fundamentais, resguardando tanto a liberdade de expressão, como a proteção dos usuários.
Aos usuários, se faz necessária maior transparência por parte das plataformas digitais, para que estas possam divulgar suas regras de moderação e a motivação clara e compreensível de decisões que afetem o usuário.
Portanto, independente do julgamento do artigo 19 do MCI, existem algumas lacunas a serem preenchidas. Quiçá o novo texto de Projeto de Lei que irá alterar o antigo PL das Fake News possa trazer esse equilíbrio – ao menos, é o que se espera.
Considerando as nossas legislações em âmbito de direito digital e o protagonismo da União Europeia em função das metas digitais para 2030, espera-se alguma influência do Digital Services Act. Contudo, é impossível prever com exatidão como será a nossa legislação nesse sentido.
[1] Disponível em <https://www.gazetadopovo.com.br/republica/lira-diz-que-pl-das-fake-news-nao-sera-votado-e-que-grupo-de-trabalho-vai-discutir-novo-texto/> e <https://www.bol.uol.com.br/noticias/2024/04/09/lira-anuncia-grupo-para-propor-nova-versao-do-pl-das-fake-news.htm> Acessado em: 10/04/2024.
[2] Disponível em <https://g1.globo.com/politica/noticia/2024/04/09/toffoli-diz-que-acao-para-responsabilizar-redes-sociais-estara-pronta-para-julgamento-no-stf-ate-junho.ghtml.> Acessado em: 10/04/2024.
SALVADOR, João Pedro Favaretto e GUIMARÃES, Tatiane. O Artigo 19 do Marco Civil da Internet merece uma audiência pública. Disponível em: https://portal.fgv.br/en/node/26193
CARVALHO, Patrícia Heloísa. MARCO CIVIL DA INTERNET:UMA ANÁLISE SOBRE A CONSTITUCIONALIDADE DO ARTIGO 19. Disponível em: https://revista.fdsm.edu.br/index.php/revistafdsm/article/view/140/136