CONFIRA ESSAS EMPRESAS
SEGURO PARA MOTORISTA DE APP
COMECE HOJE MESMO
CLASSIFICADOS
ABRIR O CATÁLOGO DE MÁQUINAS
TUDO SOBRE SEGURO DE VIDAS
ALUGUEL TEMPORADA GUARAPARI PRAIA DO MORRO ES
O IMÓVEL É UMA COBERTURA NA PRAIA DO MORRO ES LINK A BAIXO VALOR DA DIÁRIA 500R$
NÚMERO DE DIÁRIAS MINIMO 3
QUERO SABER + / CONTATO DO IMÓVEL
QUERO SABER SOBRE O CAVALO COMO COMPRAR
O melhor da web
GANHE DINHEIRO NO AIRBNB
DRA LARISSA
CONFIRA O CANAL
CONFERIR PERFIL NO LinkedIn
CONFERIR
A Meta, big tech responsável por plataformas como Facebook, Instagram e WhatsApp, divulgou nesta quinta-feira (12/12) uma nota em que manifesta preocupação com as discussões no Supremo Tribunal Federal (STF) sobre a constitucionalidade do artigo 19 do Marco Civil da Internet. Até agora, dois ministros votaram no sentido da inconstitucionalidade do texto, Dias Toffoli e Luiz Fux. O julgamento será retomado na próxima quarta-feira (18/12), após pedido de vista do presidente Luís Roberto Barroso.
Assine gratuitamente a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas do dia no seu email
O artigo 19 estabelece que plataformas só podem ser responsabilizadas por conteúdos de terceiros caso não os removam após uma ordem judicial, o que foi definido pela Meta como um marco de equilíbrio entre liberdade de expressão e responsabilidade.
“Nenhuma grande democracia no mundo jamais tentou implementar um regime de responsabilidade para plataformas digitais semelhante ao que foi sugerido até aqui no julgamento no STF”, disse a empresa sobre as discussões no STF. Nos votos proferidos, os ministros manifestaram-se no sentido de que plataformas têm o dever de remover certos tipos de conteúdo antes de ordem judicial, considerando determinados parâmetros. Segundo a Meta, o modelo atual é reconhecido internacionalmente e serve de referência para legislações de outros países, como o DSA na União Europeia e a Seção 230 nos Estados Unidos.
Para a companhia, declarar o artigo 19 inconstitucional pode trazer “incertezas jurídicas” e colocar o Brasil em posição “dissonante da comunidade internacional”. A empresa aponta que um regime de responsabilização mais amplo incentivaria plataformas a remover conteúdos de forma preventiva, mesmo que estes não violem as leis ou os padrões das comunidades.
Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas
“As plataformas poderiam ser responsabilizadas por conteúdos que não removem, mas também poderiam ser penalizadas por remover conteúdos de acordo com seus padrões de comunidade”, segundo a empresa.
Outro ponto levantado pela big tech é o impacto no sistema judiciário brasileiro. A implementação de um sistema amplo de notificação e remoção combinado com a responsabilização objetiva, segundo a empresa, “provavelmente sobrecarregaria o Judiciário, com usuários dispostos a litigar mais sobre tópicos subjetivos”.
“Temos uma longa história de diálogo e colaboração com as autoridades no Brasil, incluindo o Judiciário”, afirmou a Meta na nota. A empresa também disse apoiar a atualização das regras da internet, desde que sejam criadas “diretrizes claras para enfrentar os desafios mais substanciais da sociedade”.
A Meta é recorrente em um dos casos julgados pelo plenário do STF. A ação, que começou a tramitar em 2015, envolve uma dona de casa que descobriu a existência de um perfil falso em seu nome no Facebook, que era utilizado para ofender outras pessoas. Ela nunca teve cadastro na rede social e, ao tomar conhecimento do perfil falso, acionou a Justiça para sua remoção e solicitou indenização por danos morais.
Em primeira instância, a mulher conseguiu a exclusão do perfil e o fornecimento do endereço IP utilizado para sua criação, mas não o pedido de indenização. Em recurso, a decisão foi reformada, condenando o Facebook ao pagamento de R$ 10 mil por danos morais. A 2ª Turma Recursal Cível de Piracicaba entendeu que condicionar a retirada do perfil falso apenas após ordem judicial específica isentaria os provedores de responsabilidade, contrariando o Código de Defesa do Consumidor e a Constituição Federal.
A Meta recorreu ao STF, questionando a decisão e defendendo a constitucionalidade do Artigo 19 do Marco Civil da Internet, que exige ordem judicial prévia para a responsabilização civil de provedores por conteúdos de terceiros. Empresas de tecnologia argumentam que permitir a exclusão de conteúdo sem análise judicial prévia poderia levar à censura por parte de empresas privadas, em desacordo com a liberdade de expressão garantida pela Constituição. O STF reconheceu a repercussão geral no tema 987.
Leia a íntegra da nota divulgada pela Meta
Hoje, queremos expressar nossas preocupações com alguns dos argumentos ouvidos durante o julgamento, pelo Supremo Tribunal Federal (STF), sobre o dispositivo que define o regime de responsabilização de provedores de aplicação de internet no Brasil.
O Artigo 19 do Marco Civil da Internet é reconhecido internacionalmente por estabelecer que intermediários como plataformas digitais só podem ser responsabilizados por conteúdo de terceiros se não o removerem após receberem uma ordem judicial válida para fazê-lo. Isso não significa que as plataformas não tenham regras que proíbam conteúdos nocivos como violência, incitação e abuso infantil. Na Meta, usamos tecnologia automatizada e revisão humana para identificar e agir sobre conteúdos que violam essas políticas.
Nas últimas semanas, respeitados especialistas em internet no Brasil e boa parte da imprensa nacional têm alertado que, se o Artigo 19 for declarado inconstitucional, as incertezas jurídicas deixariam o país dissonante da comunidade internacional.
As plataformas digitais seriam sujeitas a um regime amplo de notificação e remoção e, ao mesmo tempo, poderiam ser responsabilizadas por praticamente todos os tipos de conteúdo mesmo sem que tenham sido notificadas.
Algumas das propostas apresentadas durante o debate levantam questões importantes sobre como esse novo regime de responsabilidade de plataformas digitais funcionaria na prática:
Elas seriam incentivadas a remover conteúdos subjetivos que não necessariamente violam leis locais ou regras das plataformas, em um esforço preventivo para evitar responsabilidade.
As plataformas poderiam ser responsabilizadas por conteúdos que não removem, mas também poderiam ser penalizadas por remover conteúdos de acordo com seus padrões de comunidade que foram aceitos pelos usuários ao criarem suas contas.
A combinação de um sistema amplo de notificação e remoção com responsabilidade objetiva provavelmente sobrecarregaria o Judiciário, com usuários dispostos a litigar mais sobre tópicos subjetivos como difamação sobre os quais haverá expectativa de que as plataformas tomem medidas.
Temos uma longa história de diálogo e colaboração com as autoridades no Brasil, incluindo o Judiciário. Mas nenhuma grande democracia no mundo jamais tentou implementar um regime de responsabilidade para plataformas digitais semelhante ao que foi sugerido até aqui no julgamento no STF. Não é o caso do regime previsto na Lei dos Serviços Digitais (DSA, na sigla em inglês) na União Europeia, nem no NetzDG na Alemanha ou na Seção 230 do Communications Decency Act (CDA) nos Estados Unidos.
Na Meta, estamos comprometidos em melhorar continuamente nossos sistemas e políticas para ajudar a manter as pessoas seguras ao usar nossos aplicativos. Apoiamos a atualização das regras da internet com diretrizes claras para enfrentar os desafios mais substanciais da sociedade.
Esperamos que seja alcançada uma solução balanceada sobre o regime de responsabilidade das plataformas digitais no Brasil à medida que o julgamento sobre a constitucionalidade do Artigo 19 do Marco Civil da Internet avança.