CONFIRA ESSAS EMPRESAS
SEGURO PARA MOTORISTA DE APP
COMECE HOJE MESMO
CLASSIFICADOS
ABRIR O CATÁLOGO DE MÁQUINAS
TUDO SOBRE SEGURO DE VIDAS
ALUGUEL TEMPORADA GUARAPARI PRAIA DO MORRO ES
O IMÓVEL É UMA COBERTURA NA PRAIA DO MORRO ES LINK A BAIXO VALOR DA DIÁRIA 500R$
NÚMERO DE DIÁRIAS MINIMO 3
QUERO SABER + / CONTATO DO IMÓVEL
QUERO SABER SOBRE O CAVALO COMO COMPRAR
O melhor da web
GANHE DINHEIRO NO AIRBNB
DRA LARISSA
CONFIRA O CANAL
CONFERIR PERFIL NO LinkedIn
CONFERIR
O Supremo Tribunal Federal (STF) começou no último dia 27 a analisar a constitucionalidade de dispositivos do Marco Civil da Internet (Lei 12.965/2014), em especial do artigo 19. Na visão do ministro Alexandre de Moares, inclusive, esse seria o julgamento mais importante do STF neste ano.
O artigo 19 prevê que os provedores de internet somente podem ser responsabilizados por conteúdos gerados por terceiros se não cumprirem uma decisão judicial específica de remoção. O objetivo do artigo 19 é garantir a liberdade de expressão e impedir a censura prévia.
Assine a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas no seu email
Sancionado há dez anos, o Marco Civil da Internet é uma lei pioneira em muitos aspectos, resultado de intensos debates entre especialistas e a sociedade civil, regulando direitos, deveres e princípios para o uso da internet no Brasil.
Contudo, uma década depois e diante das transformações na internet e na sociedade, é natural que a legislação enfrente questionamentos em diversas esferas e, por vezes, é necessário o seu ajuste para acompanhar as mudanças. Os questionamentos tornaram-se mais intensos devido ao fenômeno das fake news e, entre os principais debates, está a responsabilidade das plataformas por conteúdos ilícitos produzidos por terceiros.
A responsabilidade dos provedores é o cerne dos Recursos Extraordinários 1.057.258, de relatoria do ministro Luiz Fux, e 1.037.396, de relatoria do ministro Dias Toffoli, que correspondem, respectivamente, aos Temas 533 e 987 de repercussão geral.
No Tema 533, discute-se o “dever de empresa hospedeira de sítio na internet fiscalizar o conteúdo publicado e de retirá-lo do ar quando considerado ofensivo, sem intervenção do Judiciário”.
O leading case trata de uma ação de obrigação de fazer cumulada com pedido de indenização, na qual uma professora requereu a condenação do Google na remoção de comunidade da antiga rede social Orkut, em razão de comentários ofensivos a ela.
Ainda que a ação seja anterior ao advento do Marco Civil da Internet, discute-se se “à luz dos artigos 5º, II, IV, IX, XIV, XXXIII e XXXV; e 220, §§ 1º, 2º e 6º, da Constituição Federal, se, à falta de regulamentação legal da matéria, os aludidos princípios constitucionais incidem diretamente, de modo a existir o dever de empresa hospedeira de sítio na rede mundial de computadores de fiscalizar o conteúdo publicado em seus domínios eletrônicos e de retirar do ar informações consideradas ofensivas, sem necessidade de intervenção do Poder Judiciário”.
Já o Tema 987 trata da constitucionalidade do artigo 19 do Marco Civil da Internet. No leading case discute-se a responsabilidade do Facebook pela criação de um perfil fake no Facebook, com o uso de imagem e nome da autora. Diferentemente do primeiro caso, a ação foi proposta já durante a vigência do marco.
Tamanha é a relevância do tema que foram admitidos mais de 25 amici curiae, entre empresas do ramo de tecnologia, institutos, associações, instituições de ensino, centros de pesquisas, além do Ministério Público do Estado de São Paulo e do Senado Federal.
Nos dias 28 e 29 de março de 2023, foi realizada um audiência pública, na qual foram ouvidos especialistas e representantes do setor público e da sociedade civil, sobre questões técnicas, econômicas e jurídicas. Foram 47 expositores, divididos nos dois dias.
Durante o julgamento, foram realizadas sustentações orais, tanto dos recorrentes, quanto dos amici curiae. O ministro Toffoli iniciou a leitura do seu voto. Porém, em razão do horário, a sessão foi suspensa e o julgamento retornará nesta quarta-feira (4).
A decisão do STF poderá alterar as regras de responsabilidade das plataformas, com possíveis impactos na liberdade de expressão e na própria dinâmica do uso da internet.
Aqueles que defendem a inconstitucionalidade do artigo 19 aduzem, em suma e entre outros pontos, que ao condicionar a configuração de responsabilidade dos provedores de aplicações ao descumprimento de determinação judicial de remoção do conteúdo tido por infringente, afrontaria o sistema constitucional de proteção aos direitos da personalidade e ao consumidor, delineado pelo art. 5º, X e XXXII, da Constituição Federal.
De acordo com esses defensores, manter o artigo 19 do Marco Civil da Internet dificultaria o combate às fake news. As plataformas digitais lucrariam com as notícias falsas e, por isso, não teriam interesse em bloquear esse tipo de conteúdo.
Por outro lado, os que defendem a constitucionalidade do artigo 19 destacam, em síntese, que a declaração de inconstitucionalidade do artigo pode causar um efeito chamado de chilling effect. As plataformas, para evitar responsabilização por postagem de terceiros, censurariam previamente conteúdos que seriam controversos.
A exigência de ordem judicial para responsabilização garante previsibilidade e clareza na aplicação da lei. Isso permite que as remoções de conteúdo sejam baseadas em decisões judiciais fundamentadas, evitando julgamentos apressados e subjetivos por parte dos provedores de aplicação.
Além disso, as plataformas não são inertes. Dados apresentados mostram que milhares de conteúdos são excluídos proativamente e em razão de denúncias, sem a necessidade de uma ordem judicial. Não é do interesse das plataformas manter conteúdo ilícito, pois tanto os usuários quanto os anunciantes não se interessam por esse tipo de material.
No entanto, a sociedade é plural e complexa e existem conteúdos que necessitam de uma ponderação de valores e princípios igualmente protegidos.
Durante o julgamento, ouviu-se a frase de que “ou é licito ou é ilícito” como se essa classificação fosse parte de um sistema booleano. De fato, para determinados conteúdos, a ilicitude é objetiva. Agora, para outros, como por exemplo, que possam ser classificados como violação aos direitos da personalidade, essa avaliação não pode ser atribuída aos provedores de aplicação.
Em relação aos crimes contra a honra, esta é personalíssima e é assim reconhecida pelo sistema jurídico ao determinar que cabe, em regra, a propositura de uma ação penal privada, em que o ofendido pode desistir da ação.
Certos fatos podem ser considerados ofensivos para determinada pessoa, mas estão dentro do espectro da liberdade de expressão. Essa valoração subjetiva não cabe aos entes privados, sob pena de censura. Embora possíveis violações a direitos de imagem, direitos personalíssimos e honra sejam graves, não se pode optar por uma solução que possa acarretar efeitos negativos a médio e longo prazo à liberdade de expressão.
A nossa opinião é que o artigo 19 é constitucional.
No entanto, pelas manifestações de parte dos ministros durante o julgamento, nos parece que a tendência será a adoção de uma interpretação conforme à Constituição.
Como mencionamos, diante das mudanças na sociedade, decidindo o STF por uma interpretação conforme à Constituição, um bom parâmetro é a adoção da mecânica já prevista no artigo 21 e parágrafo único do Marco Civil da Internet, que se trata de uma exceção ao artigo 19.
Segundo o artigo 21, o provedor de aplicações de internet será responsabilizado subsidiariamente pela violação da intimidade decorrente da divulgação não autorizada de materiais contendo cenas de nudez ou atos sexuais de caráter privado, se, após receber notificação, não remover esse conteúdo dentro dos limites técnicos do seu serviço.
Assim, esse ponto de equilíbrio seria a ampliação cautelosa das hipóteses do artigo 21, prevendo o procedimento de notificação e retirada (notice and takedown), de conteúdo específico (i.e, indicação de URL), e fundamentada, cuja ilicitude seja objetivamente auferida, como as hipóteses de (a) exploração sexual infantil; (b) terrorismo, conforme definido pelo artigo 2º da Lei 13.260/2016; (c) racismo, conforme definido pelo artigo 20 da Lei 7.716/1989; e (d) abolição violenta do Estado democrático de Direito e golpe de Estado, conforme definidos pelos artigos 359-L e 359-M do Código Penal; (e) induzimento, instigação ou auxilio ao suicídio de automutilação (artigo 112 do Código Penal).
Essa solução intermediária foi sustentada oralmente como um pedido subsidiário por parte das plataformas. Como salientado, evita-se assim temáticas que envolvam subjetividades, para evitar insegurança jurídica, banalização da remoção e a indução da censura privada.