CONFIRA ESSAS EMPRESAS
SEGURO PARA MOTORISTA DE APP
COMECE HOJE MESMO
CLASSIFICADOS
ABRIR O CATÁLOGO DE MÁQUINAS
TUDO SOBRE SEGURO DE VIDAS
ALUGUEL TEMPORADA GUARAPARI PRAIA DO MORRO ES
O IMÓVEL É UMA COBERTURA NA PRAIA DO MORRO ES LINK A BAIXO VALOR DA DIÁRIA 500R$
NÚMERO DE DIÁRIAS MINIMO 3
QUERO SABER + / CONTATO DO IMÓVEL
QUERO SABER SOBRE O CAVALO COMO COMPRAR
O melhor da web
GANHE DINHEIRO NO AIRBNB
DRA LARISSA
CONFIRA O CANAL
CONFERIR PERFIL NO LinkedIn
CONFERIR
No próximo dia 27 de novembro, o STF iniciará o julgamento do RE 1.037.396/SP, no âmbito do qual se debate a constitucionalidade do artigo 19 do Marco Civil da Internet (Lei 12.965/2014).1 Como se sabe, o artigo 19 afirma que as plataformas digitais só podem ser responsabilizadas por danos quando e se vierem a descumprir uma ordem judicial específica para a remoção do conteúdo lesivo. Após dez anos de vigência, parece, enfim, haver consenso na comunidade jurídica de que a blindagem produzida pelo artigo 19 é excessiva.
O problema já existia em 2014, quando o Marco Civil da Internet foi promulgado. Não faltaram alertas de que o artigo 19 criava uma exceção injustificável no sistema brasileiro de responsabilidade civil: nenhum outro setor econômico, incluindo a atividade de imprensa, gozava do privilégio de somente poder ser chamado a responder por um dano após a emissão (e descumprimento de) uma ordem judicial.2 O artigo 19 sempre foi, portanto, uma norma desarrazoada. O que mudou de lá para cá foi que seus estragos se tornaram mais visíveis. À enxurrada de danos individuais, que seguem até hoje sem reparação, somaram-se danos de dimensão coletiva, como a propagação de fake news, o incremento do hate speech e os sucessivos ataques às instituições democráticas – este último, em especial, o ponto que despertou o STF para a importância do tema.
Conheça o JOTA PRO Poder, uma plataforma de monitoramento político e regulatório que oferece mais transparência e previsibilidade para empresas
Agora, mesmo vozes que, no passado, defendiam o artigo 19 voltam-se contra o dispositivo legal, alardeando sua inconstitucionalidade. O problema é que já não é mais possível simplesmente descartar a norma. Limitar-se a declarar a inconstitucionalidade do artigo 19 lançaria a responsabilidade civil das plataformas digitais de volta para o regime geral do Código Civil, o que ressuscitaria dúvidas e inseguranças que assombravam a matéria antes de 2014: por exemplo, a responsabilidade civil das plataformas digitais é subjetiva ou objetiva por se enquadrar entre as atividades de risco a que alude o art. 927, p.u., do Código Civil? Trata-se de uma responsabilidade indireta regida pelo art. 933 da codificação, uma vez que o dano é causado por um terceiro (i.e., o usuário que publica o conteúdo lesivo na plataforma digital), ou se trata de dano produzido pela própria plataforma? Aplica-se ou não o CDC? É necessária a prova de um defeito no serviço?
A declaração de inconstitucionalidade pura e simples nos faria retornar uma década para trás, desperdiçando um debate que, embora tenha se iniciado com perigoso atraso no Brasil, vem sendo travado de modo intenso nos últimos anos. O melhor caminho para o STF parece ser aplicar ao artigo 19 uma interpretação conforme a Constituição. Isso permitiria construir uma tese jurisprudencial, que, à falta de lei editada pelo Congresso Nacional, pudesse ser aplicada por magistrados de todo país na solução de conflitos relacionados ao uso das plataformas digitais e, além disso, prevenir novos danos aos indivíduos e à sociedade.
Quatro diretrizes poderiam ser observados pelo STF nesta relevante tarefa.
Primeira diretriz: em casos de violações flagrantes a direitos fundamentais, facilmente identificáveis pelo próprio teor do conteúdo postado, as plataformas digitais devem responder pelo dano causado independentemente de ordem judicial ou notificação. É o que ocorre, por exemplo, com vídeos que ensinam pessoas a praticarem crimes (ataques a escolas etc.); com cenas de sexo envolvendo menores de idade (pedofilia); com conteúdo racista, homofóbico ou que incite a prática concreta de violência contra certa pessoa humana; etc. São situações em que a própria publicação já permite identificar, por si só, a violação a direitos fundamentais. A responsabilidade civil das plataformas digitais deve, neste caso, exsurgir desde o primeiro momento, pois compete às plataformas digitais, e não à vítima, prevenir a ocorrência do dano. Trata-se de um mínimo “dever de cuidado”. E toda plataforma digital precisa adotar as medidas necessárias para cumprir este dever de cuidado.
Assine a newsletter Últimas Notícias para receber os episódios do podcast Paredes São de Vidro em primeira mão e o roteiro ao final da temporada
Segunda diretriz: em relação a outras espécies de violações a direitos, as plataformas digitais devem responder pelo dano a partir do momento em que recebam notificação sobre a existência do conteúdo lesivo. Nestas hipóteses, a violação não é flagrante e não pode ser extraída prontamente do conteúdo publicado. É o caso, por exemplo, das cenas de sexo ou nudez de pessoas adultas, que podem ter sido autorizadas. É também o caso de cenas de violência, que podem advir de um relato verídico, representando verdadeira denúncia de prática ilícita. É, ainda, o caso de críticas ferrenhas contra autoridades públicas, que podem estar protegidas pela liberdade de expressão. As plataformas digitais não têm prima facie o dever de impedir tais publicações, mas, uma vez notificadas, têm o dever de avaliar o conteúdo específico e decidir pela sua remoção ou permanência. Em caso de permanência, se o conteúdo se provar ilícito ao final da demanda judicial, a responsabilidade civil das plataformas digitais deve retroagir ao momento do recebimento da notificação, quando a plataforma já poderia ter agido. Não há nenhuma necessidade de uma ordem judicial – via solene, custosa e demorada, que transforma o Judiciário em uma espécie de SAC das plataformas digitais.3 Vale notar que o Marco Civil da Internet já se contenta com mera notificação extrajudicial em seu artigo 21, embora limitadamente às cenas de sexo ou nudez. Tal solução deve ser estendida a todas as hipóteses de violação a direitos que não se enquadrem na categoria mencionada anteriormente, isto é, a violação flagrante a direitos fundamentais. Vale notar que o STJ já se posicionou favoravelmente à suficiência de mera notificação mesmo em hipótese que não estava descrita no artigo 21.4 Registre-se que compete às plataformas manterem, de modo permanente e facilitado, um canal no próprio ambiente digital para envio destas notificações.
Terceira diretriz: o controle proativo de licitude do conteúdo publicado, que decorre da primeira e segunda diretrizes, pode ser realizado por meio de recursos tecnológicos já disponíveis (incluindo IA), mas o usuário que tem conteúdo removido deve sempre poder solicitar uma revisão humana da decisão de remoção. O direito à revisão humana assegura que as ferramentas utilizadas para suprimir conteúdo ilícito não acabarão gerando o efeito oposto: suprimir conteúdo lícito, ferindo, assim, a liberdade de expressão no ambiente digital.5 Isso, naturalmente, exige investimento em recursos humanos, garantindo que revisores capacitados estejam disponíveis para avaliar, remover e restaurar conteúdos injustamente removidos. Tal medida também passa pelo dever de garantir condições de trabalho adequadas para os indivíduos que desempenhem tal função, uma vez que diariamente serão expostos a conteúdos com alto potencial de impacto psicológico negativo.6
Quarta diretriz: as plataformas digitais devem, por fim, dar publicidade e transparência aos procedimentos e parâmetros que adotam para a moderação e remoção de conteúdo, bem como ao modo e à finalidade para a qual captam e utilizam dados pessoais de seus usuários, em respeito ao que já impõe a Lei Geral de Proteção de Dados Pessoais (Lei 13.709/2008).7 Não é lícito, nem razoável que os usuários não saibam quais de seus dados pessoais estão sendo captados durante o uso das plataformas digitais e para o quê exatamente estão sendo utilizados. Os modos como ocorrem o direcionamento de conteúdo, a seleção algorítmica, o armazenamento de dados e a construção de perfis dos usuários devem ser conhecidos do público que utiliza as plataformas digitais, rompendo-se a obscuridade que, hoje, contribui para uma visão soturna da atuação das plataformas digitais.
Estas quatro diretrizes elevariam o grau de confiabilidade das plataformas digitais, incrementando sua atividade econômica, ao mesmo tempo em que assegurariam uma efetiva tutela dos direitos de seus usuários, em consonância com o que determina a legislação brasileira. Se, até o momento, o Congresso Nacional não se mostrou capaz de editar uma lei sobre o tema – em que pese o longo debate em torno do chamado “PL das Fake News” – restou ao STF a tarefa de desenhar uma solução, que não lance por terra tudo que aprendemos até aqui. Se vamos avançar para o futuro, retornar ao passado ou permanecer exatamente onde estamos, somente o dia 27 de novembro nos dirá.
_______________________________________________________
1 “Barroso marca julgamento sobre Marco Civil da Internet” (Valor Econômico, 16.10.2024).
2 Seja consentido remeter a Anderson Schreiber, Marco Civil da Internet: Avanço ou Retrocesso? A responsabilidade civil por danos derivado do conteúdo gerado por terceiro, in Newton de Lucca et al. (coords.), Direito e Internet III: Marco Civil da Internet, Lei nº 12.965/2014, t. II, São Paulo: Quartier Latin, 2015, pp. 277-305. Na mesma direção, Bruno Terra de Moraes, A Responsabilidade Civil na Lei 12.965/14: Uma Leitura sob a Perspectiva da Tutela da Pessoa Humana, in XXV Congresso do Conpedi, Florianópolis: Conpedi, 2016, pp. 26-44.
3 Também se provou falso o raso argumento do “chilling effect” que recairia sobre as plataformas digitais. O que se viu, nos últimos dez anos, é que, mesmo em caso de ordem judicial específica, muitas plataformas resistem à remoção de conteúdo.
4 STJ, 4ª T., REsp 1.783.269, Rel. Min. Antonio Carlos Ferreira, j. 14.12.2021.
5 Sobre o tema, ver Maria Regina Korkmaz, Decisões Automatizadas: Explicação, Revisão e Proteção na Era da Inteligência Artificial, São Paulo: RT, 2024.
6 Sobre as condições de trabalho dos moderadores de conteúdo, vale conferir o relato contido no “Ato 2” do episódio 44 do Podcast Rádio Novelo.
7 Ver Laura Schertel Mendes et al., Oito medidas para regular big techs garantindo liberdade de expressão, in Folha de S. Paulo, 28.2.2023.