CONFIRA ESSAS EMPRESAS
SEGURO PARA MOTORISTA DE APP
COMECE HOJE MESMO
CLASSIFICADOS
ABRIR O CATÁLOGO DE MÁQUINAS
TUDO SOBRE SEGURO DE VIDAS
ALUGUEL TEMPORADA GUARAPARI PRAIA DO MORRO ES
O IMÓVEL É UMA COBERTURA NA PRAIA DO MORRO ES LINK A BAIXO VALOR DA DIÁRIA 500R$
NÚMERO DE DIÁRIAS MINIMO 3
QUERO SABER + / CONTATO DO IMÓVEL
QUERO SABER SOBRE O CAVALO COMO COMPRAR
O melhor da web
GANHE DINHEIRO NO AIRBNB
DRA LARISSA
CONFIRA O CANAL
CONFERIR PERFIL NO LinkedIn
CONFERIR
Na virada de ano de 2015 para 2016, as ruas de Colônia, na Alemanha, estavam tomadas por celebrações. Milhares de pessoas lotavam a praça central para assistir aos fogos de artifício e brindar o início de mais um ano. Mas, na manhã seguinte, o que dominava as manchetes não eram os festejos, e sim relatos sombrios de agressões sexuais e roubos em massa.
Dezenas de mulheres denunciavam ter sido vítimas de ataques coordenados, perpetrados por grupos de homens, muitos deles identificados como imigrantes árabes e norte-africanos. Esse episódio se tornou rapidamente um divisor de águas no debate público alemão sobre imigração, inflamando opiniões e expondo temores até então subjacentes.
A Alemanha, sob a liderança da chanceler Angela Merkel, havia aberto suas portas para mais de um milhão de refugiados e imigrantes no ano anterior, com promessas de acolhimento e integração. Mas a política de portas abertas trazia consigo controvérsias. Críticas ferozes começaram a ecoar nas mídias e nos parlamentos, questionando a capacidade do país de lidar com um fluxo tão intenso de pessoas e os riscos de segurança associados.
Conheça o JOTA PRO Poder, uma plataforma de monitoramento político e regulatório que oferece mais transparência e previsibilidade para empresas
Foi neste cenário que a Alternativa para a Alemanha (AfD), partido nacionalista de direita fundado poucos anos antes, começou a consolidar seu espaço na arena política, oferecendo-se como uma voz de oposição radical às políticas de Merkel. A AfD defendia uma Alemanha para os alemães, fechada ao que consideravam uma ameaça iminente à sua identidade cultural e à segurança pública.
Dois anos depois, na virada de 2017 para 2018, o espectro daquele episódio ainda pairava sobre o país. Com o intuito de promover a integração e acalmar as tensões, a polícia de Colônia postou uma mensagem de ano novo em árabe, desejando a todos um feliz ano novo. Porém, o que supostamente deveria ser um gesto de inclusão rapidamente se transformou em um estopim para novas discussões. Beatrix von Storch, deputada da AfD, reagiu ao tweet com indignação: “O que diabos está acontecendo com esse país? Estão tentando apaziguar a horda bárbara muçulmana?”
Esse comentário inflamado de von Storch ocorreu apenas algumas horas antes de a nova Lei de Fiscalização de Redes da Alemanha, a NetzDG (Netzwerkdurchsetzungsgesetz), entrar em vigor oficialmente, em 1º de janeiro de 2018. Em poucas horas, o Twitter e o Facebook removeram o comentário da deputada, citando a violação das políticas de discurso de ódio das plataformas.
Para von Storch e seus apoiadores, o episódio era a prova cabal de uma censura que, segundo eles, visava calar críticas legítimas. Mas, para muitos, o caso representava algo mais complexo: o primeiro teste da NetzDG, que exigia que as plataformas fossem responsáveis por remover conteúdos “manifestamente ilegais” em até 24 horas após a notificação.
A construção da NetzDG teve suas raízes também em 2015, quando o Ministério Federal da Justiça e Proteção ao Consumidor formou um grupo de trabalho para lidar com conteúdos criminosos nas redes sociais. Inicialmente, algumas plataformas fizeram compromissos voluntários para remover conteúdos ofensivos, mas o ministério considerou essas medidas insuficientes.
Heiko Maas, então Ministro da Justiça, apontou que uma análise feita em 2017 pela organização Jugendschutz.net mostrou que as redes sociais não estavam removendo adequadamente comentários de ódio e argumentou que, para tornar as plataformas mais responsáveis, seria necessário regulamentar legalmente esse processo.
Em 16 de maio de 2017, o governo, representado pelos partidos CDU/CSU e SPD, apresentou o projeto de lei ao Bundestag. A NetzDG, formulada como resposta ao crescimento do discurso de ódio online, obrigava redes sociais comerciais com pelo menos 2 milhões de usuários a implementar mecanismos de denúncia para conteúdos potencialmente ilegais, incluindo incitação ao ódio, difamação, insulto e disseminação de propaganda nazista. Em casos de ilegalidade menos evidente, as empresas tinham até sete dias para avaliar o conteúdo.
A consequência para o não cumprimento era pesada: multas que podiam chegar a 50 milhões de euros. Após ajustes e debates no Bundestag, o projeto foi aprovado em 30 de junho de 2017 com a maioria dos votos da coalizão governista, contra a oposição da esquerda e do CSU, e com a abstenção do partido Aliança 90/Os Verdes.
Apesar de sua intenção declarada de proteger a sociedade, a NetzDG levantou uma avalanche de críticas desde o início. Ativistas de direitos digitais e especialistas em liberdade de expressão alertavam que, ao forçar as plataformas a agir rapidamente, a lei criava um forte incentivo para a chamada over-removal — uma remoção excessiva que, na dúvida, preferia silenciar conteúdos legítimos a correr o risco de multas.
Wenzel Michalski, diretor da Human Rights Watch na Alemanha, argumentou que a lei transformava “empresas privadas em censores excessivamente zelosos, deixando os usuários sem supervisão judicial ou direito a apelação.” Sem um processo judicial claro, a responsabilidade de definir o que era discurso de ódio recaía sobre as empresas, que, segundo críticos, priorizavam a cautela em detrimento da liberdade de expressão.
O caso von Storch tornou-se emblemático. A AfD, sempre vocal sobre sua oposição à mídia mainstream, agora tinha um caso concreto para ilustrar o que afirmavam ser censura institucionalizada, alimentando o que alguns chamariam de “Efeito Storch”. O episódio deu novos argumentos ao partido e inflamou ainda mais a sua base de apoio, que via na exclusão do tweet uma prova de que a NetzDG era um instrumento para silenciar vozes dissidentes, especialmente em temas de imigração e segurança.
Para os gigantes da tecnologia, a NetzDG impunha uma missão espinhosa. Decidir se um conteúdo era “manifestamente ilegal” exigia uma compreensão profunda das leis alemãs e de seu contexto cultural, algo complexo mesmo para os advogados mais experientes. A decisão equivocada podia significar um dano à imagem da empresa e a perda de confiança dos usuários, mas a decisão de manter conteúdos potencialmente ilegais no ar poderia acarretar multas altíssimas. As plataformas, portanto, seguiam uma linha tênue, onde a tendência era agir com extrema cautela, optando por remover conteúdos controversos para evitar riscos.
Foi o caso de Mike Samuel Delberg, representante da comunidade judaica alemã, que teve sua conta no Facebook suspensa após publicar um vídeo que expunha um incidente de antissemitismo em Berlim. No vídeo, Yorai Feinberg, proprietário de um restaurante, é alvo de insultos antissemitas nas ruas da capital, um episódio que gerou ampla repercussão na mídia.
Ao compartilhar o vídeo, Delberg pretendia conscientizar o público sobre a persistência do antissemitismo no país. No entanto, sua conta foi desativada, e só foi restabelecida após uma onda de reclamações. O caso evidenciou uma das ironias da NetzDG: uma lei criada para combater o discurso de ódio acabou censurando uma tentativa de denunciá-lo, levantando questionamentos sobre os limites e potenciais efeitos colaterais dessa regulação.[1]
Assine gratuitamente a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas do dia no seu email
Modelo para países autoritários
A batalha da Alemanha sobre como lidar com o discurso de ódio online — com regras que, sem dúvida, estão entre as mais rigorosas do mundo ocidental — teve repercussões também no estrangeiro. Com a NetzDG, a Alemanha tornou-se um laboratório para outros países que buscavam regulamentar o conteúdo online. Em especial os mais autoritários.
Um dos primeiros exemplos de legislação inspirada no modelo alemão foi a Rússia. Em 2017, o governo russo apresentou lei que exigia que plataformas de redes sociais com mais de dois milhões de usuários removessem conteúdos “ilegais”, incentivando os próprios usuários a denunciarem postagens consideradas ofensivas ou ameaçadoras. A adaptação russa da NetzDG chamou a atenção da organização Repórteres Sem Fronteiras (RSF), que, no mesmo ano, publicou um artigo condenando o projeto de lei russo como um “copia-e-cola” da legislação alemã.
Para a RSF, a adoção de uma versão da NetzDG na Rússia era a materialização dos piores receios: quando democracias influentes criam leis draconianas, acabam fornecendo um modelo para regimes repressivos. Submetido à Duma em julho daquele ano, o projeto de lei russo claramente referenciava a legislação alemã, com prazos rígidos para que as redes sociais removessem conteúdo “ilegal” em até 24 horas. Christian Mihr, diretor executivo da RSF na Alemanha, afirmou que a lei alemã estava agora servindo como um modelo para Estados não democráticos limitarem o debate online.
O projeto de lei russo, com definições vagas de conteúdo ilegal e grandes multas para não conformidade, aumentava as chances de censura excessiva nas redes sociais e de uma supervisão estatal cada vez mais intensa. Para a RSF, isso representava um novo estágio na censura massiva da internet russa, onde o controle estatal sobre o fluxo de informações já era uma realidade constante, silenciando vozes dissidentes.[2]
Dito e feito. A trajetória de controle da informação na Rússia se desenrolou em um crescendo de medidas legislativas. Em 18 de março de 2019, a assinatura das leis No.31-FZ e No.27-FZ por Vladimir Putin foi o ponto de partida de uma era em que o Roskomnadzor, agência de supervisão de comunicações, passou a ter o poder de bloquear conteúdo online classificado como não confiável. A narrativa se intensificou com a lei No.28-FZ, que, no mesmo dia, tornou crime o “desrespeito flagrante” ao Estado e seus símbolos, punível com multas e até 15 dias de prisão para reincidências.
Com a chegada da pandemia, o controle se expandiu: em 1º de abril de 2020, as leis No.99-FZ e No.100-FZ criminalizaram a disseminação de informações que contradissessem as versões oficiais sobre crises sanitárias, focando especialmente em alegações sobre a Covid-19. Essa regulamentação estabeleceu um tom de inflexibilidade quanto a narrativas alternativas.
A invasão da Ucrânia em 2022 acelerou ainda mais esse movimento. Em 4 de março, Putin assinou as leis No.31-FZ e No.32-FZ, alterando o Código Penal para impor até 15 anos de prisão para quem divulgasse “informações falsas” sobre as ações das Forças Armadas Russas. Pouco tempo depois, em 25 de março, as leis No.62-FZ e No.63-FZ ampliaram o escopo dessas restrições, incluindo qualquer órgão estatal em ações fora do território russo, como o Ministério das Relações Exteriores e o Serviço Federal de Segurança. O encadeamento dessas leis revela uma progressão cuidadosa, transformando a esfera digital e pública em um espaço rigorosamente monitorado, onde a liberdade de expressão é moldada pelas diretrizes do Estado.
E a influência da NetzDG não se limitou à Rússia. A Venezuela seguiu um caminho semelhante ao adotar uma abordagem rigorosa de controle de conteúdo na internet e nos meios de comunicação com a Lei contra o Ódio, pela Coexistência Pacífica e Tolerância, sancionada em 2017. Esse instrumento prevê até 20 anos de prisão para quem for acusado de disseminar discurso de ódio.
A legislação, que deveria ostensivamente proteger a coexistência pacífica, foi rapidamente criticada como uma ferramenta para reprimir vozes dissidentes. O Centro para Proteção dos Jornalistas (CPJ) aponta que a lei tem sido usada para silenciar jornalistas e opositores políticos, frequentemente sem um julgamento formal ou devido processo legal.
Um caso emblemático foi o do repórter fotográfico Jesús Medina Ezaine, detido após reportar sobre a crise de saúde no país. Ele permaneceu preso por 16 meses, sem julgamento, sob acusações de incitar o ódio. A liberdade de Medina só veio em janeiro, mas o seu caso expôs os efeitos sombrios dessa lei sobre a imprensa e a liberdade de expressão, revelando um padrão de uso de legislações contra discurso de ódio para limitar o debate público e reforçar o controle governamental.
Ironicamente, a lei criada na Alemanha para combater o ódio direcionado a milhões de imigrantes muçulamanos — incluindo cerca de 3 milhões de turcos e descendentes — acabou servindo também de inspiração para o governo autoritário da Turquia.
Na Turquia, por anos, a liberdade de expressão e a imprensa têm sido alvo de ataques, tornando o país um dos principais encarceradores de jornalistas no mundo. Com o controle estatal já severo sobre o discurso público, o ambiente para críticos e ativistas tornou-se ainda mais hostil em julho de 2020, quando o parlamento aprovou uma nova Lei de Desinformação.
A medida foi rapidamente votada, sem espaço para oposição ou consultas públicas, sob a justificativa de combater o discurso de ódio e o assédio virtual. Na prática, a nova lei ampliou o alcance do governo para monitorar e restringir o conteúdo nas redes sociais, fortalecendo o controle sobre o ambiente digital e limitando o espaço de crítica e oposição.
Para as autoridades turcas, a NetzDG forneceu um modelo que legitimava, em teoria, essa nova estrutura de censura. O governo turco apresentou a lei como um exemplo de modernização e proteção pública, apontando para a legislação alemã como um precedente.
O que difere lei alemã e turca é sobretudo o contexto político. Com um sistema judiciário amplamente visto como politizado, concretizou-se um temor de que as interpretações dos promotores fossem orientadas para inibir críticas ao governo, principalmente em um ano eleitoral.
Um dos primeiros alvos da lei turca foi o líder da oposição, Kemal Kılıçdaroğlu, que enfrentou acusações de espalhar fake news após alegar envolvimento do governo em atividades de tráfico de drogas. Esse episódio, além da condenação do popular prefeito de Istambul, Ekrem İmamoğlu, revelou uma estratégia de limitar o alcance de figuras proeminentes da oposição.[3]
Enquanto o governo argumentava que regulações desse tipo são uma resposta necessária à desordem informacional, críticos observavam que a interpretação flexível de termos como ordem pública e segurança interna levariam à autocensura.
Além disso, a exigência de que as redes sociais compartilhassem informações detalhadas dos usuários e removessem conteúdos controversos em prazos rígidos, sob risco de multas, gerou um impacto direto nos cidadãos e até mesmo nas pequenas e médias empresas que dependiam dessas plataformas para se comunicar com seus clientes.
Inscreva-se no canal de notícias do JOTA no WhatsApp e fique por dentro das principais discussões do país!
Inspiração para o Brasil?
No Brasil, o Marco Civil da Internet, promulgado em 2014, estabeleceu um regime jurídico inovador para a internet, com o Artigo 19 como epicentro das regras de responsabilidade. Este artigo definiu que plataformas digitais só poderiam ser responsabilizadas civilmente por conteúdos postados por terceiros caso não removessem tais conteúdos após uma ordem judicial específica.
Essa norma visava proteger a liberdade de expressão, evitando que as empresas atuassem como censoras, controlando o conteúdo dos usuários sem supervisão do Judiciário. Tal política refletia a confiança na mediação judicial para evitar abusos e garantir um equilíbrio entre liberdade de expressão e proteção contra danos morais e privacidade. Essa confiança, contudo, não duraria por muito tempo.
Com o avanço de discussões sobre a disseminação de desinformação e discurso de ódio, em 2023, o deputado Orlando Silva (PCdoB-SP) apresentou um parecer ao Projeto de Lei 2.630/20, conhecido como PL das Fake News, e introduziu o conceito de dever de cuidado. Inspirado em partes pela NetzDG alemã, o projeto exigia que as plataformas agissem monitorando e removendo proativamente conteúdos que incitassem crimes como terrorismo, violência contra o Estado Democrático de Direito, racismo e violência contra a mulher. A proposta não avançou, enfrentando resistência no Congresso, mas acendeu um debate sobre a responsabilidade das plataformas.
Esse debate foi intensificado em março de 2024, quando o Tribunal Superior Eleitoral (TSE) aprovou a Resolução 23.732/2024, em preparação para as eleições municipais. Sob a relatoria da ministra Cármen Lúcia, essa resolução ampliou o conceito de responsabilidade das plataformas, introduzindo o dever de polícia, o qual exigia que as empresas identificassem e removessem informações falsas ou distorcidas que poderiam comprometer a integridade eleitoral sem precisar de uma ordem judicial. Conteúdos considerados antidemocráticos, racistas, fascistas ou que promovam discurso de ódio ou desinformação deveriam ser eliminados rapidamente, gerando uma nova camada de obrigação para as plataformas digitais no Brasil.
A última tacada de influência do modelo alemão na regulação brasileira, contudo, ainda está por vir. Em 27 de novembro de 2024 está pautado o julgamento da constitucionalidade do artigo 19 do Marco Civil da Internet, com potencial impacto em toda a infraestrutura de governança da internet no país. Tratam-se de dois Recursos Extraordinários (RE) de repercussão geral (Tema 987 e 533).
O julgamento do artigo 19 no Supremo Tribunal Federal (STF) tem gerado intensas discussões, com vozes destacadas em defesa de uma mudança na responsabilidade das plataformas. A Associação Brasileira de Emissoras de Rádio e Televisão (ABERT), por exemplo, argumentou que o atual modelo favorece a permanência de desinformação, já que apenas uma decisão judicial pode forçar a retirada de conteúdos prejudiciais. Para a ABERT, a rapidez é essencial, especialmente em crimes de ódio e ameaças à ordem democrática, alegando que a burocracia judicial se torna uma barreira para a segurança digital.
ONGs, como o Instituto Brasileiro de Defesa do Consumidor (Idec) e o Alana, apontam a necessidade de um sistema ágil para proteger vítimas de difamação ou abuso online. Argumentam que, sem a mudança, cidadãos ficam vulneráveis à violação de direitos, uma vez que o processo judicial leva tempo. Eles propuseram um sistema de notice and takedown não apenas para conteúdos de ódio e racismo, mas também relações de consumo e proteção de crianças e adolescentes. Nesses casos, as plataformas passariam ser responsabilizadas independente de ordem judicial.
Contudo, advogados e especialistas, entre eles o ex-ministro Francisco Rezek, alertam que uma mudança assim pode resultar em uma censura excessiva, já que as plataformas teriam incentivos para remover preventivamente diversos conteúdos, colocando em risco o direito à livre expressão. Rezek destacou que essa abordagem poderia criar um efeito de “censura privada” e abalar o próprio cerne do Marco Civil, cuja proposta é resguardar o debate democrático ao deixar a responsabilidade sobre conteúdos controversos para uma análise judicial imparcial.
É provável que o tribunal vá graduar as responsabilidades e consequências de forma diferenciada, de acordo com o tipo de conteúdo envolvido, reconhecendo as peculiaridades dos diferentes tipos de ilícitos. Para alguns especialistas, é possível que o STF replique o NetzDG e defina que as plataformas são, conforme sua interpretação constitucional, responsabilizadas por conteúdos manifestamente ilegais, em especial para temas como discurso de ódio, crimes contra o Estado Democrático de Direito e racismo.
O Brasil está mais próximo da Turquia ou da Alemanha?
Para o Brasil, seguir um caminho semelhante pode resultar em um sistema em que plataformas, ao anteciparem punições, tornam-se censoras ativas, excluindo conteúdos que não violam a lei, mas que incomodam certos interesses ou posições políticas. Um cenário de autocensura ampla geraria um efeito em cascata: as plataformas limitariam o debate para se proteger, os usuários perderiam espaço para expressar opiniões, e a liberdade de expressão, que o Marco Civil da Internet buscou garantir, poderia ficar ameaçada. Assim, ao invés de fortalecer a democracia, esse tipo de regulação pode gerar um ambiente de silêncio forçado, mais próximo do que se vê em regimes autoritários do que em democracias robustas.
Ao seguir os passos da Alemanha com a NetzDG, o Brasil pode acabar seguindo os passos de Rússia, Venezuela e Turquia, onde a moderação dos conteúdos foi utilizada como uma ferramenta de censura para silenciar opositores e críticas ao governo, independentemente da ideologia das autoridades.
Com um contexto político marcado pela polarização e pelo uso estratégico das redes sociais, o Brasil corre o risco de seguir essa mesma trajetória. A linha entre a segurança pública e o controle político se dissolvem, e o ambiente digital transforma-se em um espaço rigidamente vigiado, onde críticas políticas e denúncias de todos os lados do debate são sufocadas.
[2] https://rsf.org/en/russian-bill-copy-and-paste-germany-s-hate-speech-law