CONFIRA ESSAS EMPRESAS
SEGURO PARA MOTORISTA DE APP
COMECE HOJE MESMO
CLASSIFICADOS
ABRIR O CATÁLOGO DE MÁQUINAS
TUDO SOBRE SEGURO DE VIDAS
ALUGUEL TEMPORADA GUARAPARI PRAIA DO MORRO ES
O IMÓVEL É UMA COBERTURA NA PRAIA DO MORRO ES LINK A BAIXO VALOR DA DIÁRIA 500R$
NÚMERO DE DIÁRIAS MINIMO 3
QUERO SABER + / CONTATO DO IMÓVEL
QUERO SABER SOBRE O CAVALO COMO COMPRAR
O melhor da web
GANHE DINHEIRO NO AIRBNB
DRA LARISSA
CONFIRA O CANAL
CONFERIR PERFIL NO LinkedIn
CONFERIR
O ministro Luiz Fux, relator de uma das ações com repercussão geral sobre o artigo 19 do Marco Civil da Internet, discutidas nesta quarta-feira (11/12) no plenário do Supremo Tribunal Federal (STF), afirmou que a proteção do texto é deficiente. Ele seguiu o relator da outra ação em discussão, ministro Dias Toffoli, pela inconstitucionalidade do texto, que estabelece que as redes devem retirar conteúdos após notificação judicial. Além disso, na sessão desta quinta, o presidente da Corte, Luís Roberto Barroso, pediu vista em relação aos dois casos. Assim, o tema volta ao plenário na próxima quarta-feira (18/12), segundo Barroso.
“Responsabilizar só após a decisão judicial de remoção revela proteção deficiente. Tanto mais que a manifestação ilícita viraliza em minutos, em horas, e para o mundo em horas”, disse Fux, que leu seu relatório e voto nesta quarta. Ele defende que essa abordagem resulta em “justiça tardia”, que transforma a reparação em um “prêmio de consolação” e não atende às necessidades preventivas da responsabilidade civil.
Conheça o JOTA PRO Poder, uma plataforma de monitoramento político e regulatório que oferece mais transparência e previsibilidade para empresas
Para ele, a remoção deve acontecer imediatamente após as empresas serem “devidamente informadas por qualquer meio idôneo”. E caberia às empresas acionar o Judiciário caso desejasse que o conteúdo seja novamente publicado. “Por isso, eu defendo a remoção imediata, não em prazo razoável. Notificou, tira. Quer botar de novo? Judicializa”, disse. No caso de conteúdos pagos, deve-se presumir o conteúdo da plataforma, por isso a notificação seria dispensada, segundo Fux.
Moderação
Fux também afirmou que as plataformas digitais, ao lucrar com conteúdos que causam prejuízo a terceiros, devem assumir uma postura ativa na moderação e remoção de publicações que violem direitos fundamentais. Ele propõe que a responsabilidade inicial de agir recaia sobre as plataformas, cabendo a elas monitorar e remover conteúdos, invertendo o ônus da judicialização.
O ministro defende que, em casos de conteúdos que veiculem discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição do Estado Democrático de Direito ou ao golpe de Estado, as plataformas têm o dever de realizar monitoramento ativo, já que esses tipos de discurso são explicitamente vedados pela legislação penal e pela Constituição.
Assine gratuitamente a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas do dia no seu email
Fux também diz que cabe “às plataformas, o dever de disponibilizar meios eletrônicos, funcionais e sigilosos para o recebimento de denúncia e reclamação de seus usuários que se sintam lesados”. O ministro justifica o sigilo ao argumentar que a exposição de quem faz a denúncia poderia potencializar os danos, colocando o denunciante em risco.
Marco Civil da Internet e Constituição
O ministro Fux iniciou seu relatório afirmando que o caso sob sua análise ocorreu antes da vigência do Marco Civil da Internet, em 2014, o que requer uma análise jurídica distinta em relação aos casos posteriores, como o que estava sob a relatoria do ministro Dias Toffoli e foi lido nas sessões anteriores. No entanto, segundo ele, mesmo sem o Marco Civil, a Constituição de 1988 já previa garantias robustas aplicáveis ao caso.
“O que diz a Constituição de 1988 nos direitos fundamentais em cláusula pétrea? São invioláveis a vida privada, a honra e a imagem das pessoas, assegurado o direito de indenização pelo dano material ou moral decorrente de sua violação”, afirmou.
Assim, o ministro sustenta que as plataformas têm uma responsabilidade constitucional de agir quando notificadas sobre conteúdos que violem direitos fundamentais, e critica o entendimento de que as empresas possam se isentar dessa responsabilidade.
Fux argumenta que a implementação do Marco Civil da Internet foi desvirtuada em alguns aspectos, já que, originalmente, a lei visava promover a inovação, a difusão de acesso à internet e a ampliação do debate democrático. Ele sugere que a lei acabou sendo utilizada para justificar uma zona de conforto das plataformas, que se isentam de responsabilidade sob a justificativa de liberdade de expressão.
Inscreva-se no canal de notícias do JOTA no WhatsApp e fique por dentro das principais discussões do país!
No caso concreto, em que uma professora pediu a remoção de uma comunidade ofensiva a ela na finada rede social Orkut, Fux diz que “tendo a recorrente Google do Brasil obtido conhecimento inequívoco da existência do conteúdo lesivo, porquanto devidamente notificada pela recorrida e sendo as postagens apontadas na notificação, obviamente ofensivos à honra da mesma e ilícita, tinha recorrente o dever de remover a comunidade criada na rede social.”
Inteligência Artificial
Fux também mencionou a necessidade de regulação específica para conteúdos gerados por inteligência artificial (IA), destacando o papel das plataformas em identificar claramente quando uma postagem, imagem ou áudio foi criada por sistemas de IA, e que as ferramentas também podem gerar falsidades.
“Eu sou casado com outra moça segundo uma dessas ferramentas. Para mim nada deletério no caso concreto, mas pode gerar alguns transtornos para os respectivos cônjuges”, brincou o ministro Flávio Dino.
O Marco Legal da IA foi aprovado na última terça-feira (10/12) no Senado. Assim, outros ministros ponderaram que o Judiciário não deveria ainda incursionar no tema, tendo em vista o processo legislativo em curso.