A resolução do TSE e os riscos da automação para a liberdade de expressão online

Spread the love

Nos últimos anos, temos visto uma crescente preocupação com a produção e a disseminação online de conteúdos ilegais e deletérios, sobretudo em contexto eleitoral. A experiência tem mostrado que as ferramentas legais disponíveis para enfrentar o problema não dão conta do volume e da velocidade com que esses conteúdos são produzidos e distribuídos na internet. Somente no YouTube, mais de 500 horas de vídeo inundam a plataforma a cada minuto, o que significa que não há alternativa senão utilizar algoritmos para a moderação desse conteúdo.

Nesse contexto, em vários países, legisladores e reguladores têm pressionado as plataformas digitais a implementarem medidas de combate e prevenção, principalmente com o uso de inteligência artificial. No Brasil, esse é o caso da Resolução 23.732/2024, divulgada em 1º de março e que dispõe sobre a propaganda eleitoral, já aplicável às eleições municipais deste ano.

Entre alguns avanços e vários pontos preocupantes, ela determina que as plataformas devem adotar medidas para impedir ou diminuir a circulação “de fatos notoriamente inverídicos ou gravemente descontextualizados que possam atingir a integridade do processo eleitoral”. Isso inclui a identificação de perfis para impedir nova circulação do conteúdo e inibir comportamentos ilícitos, além da moderação de conteúdos considerados discurso de ódio, racismo, homofobia, ideologias nazistas ou qualquer forma de discriminação. Também passa pelo dever das plataformas de aprimorar “suas capacidades tecnológicas e operacionais”.

À primeira vista, as novas exigências do Tribunal Superior Eleitoral fazem sentido. Se é verdade que uma avalanche de desinformação e outros conteúdos perniciosos está atingindo a integridade do processo eleitoral – com implicações no exercício livre e consciente do voto e na própria legitimidade das eleições –, nada mais evidente do que retirá-los do ar. Pela resolução do TSE, as próprias plataformas, que já fazem alguma gestão do conteúdo em seus serviços, passam a ser obrigadas a varrer implacavelmente todos os cantos de seus espaços digitais.

Contudo, é incerto se essa limpeza tão minuciosa e intensiva de fato é possível ou suficientemente acurada. Na verdade, a produção científica mostra que esses algoritmos que filtram e moderam conteúdo nas redes sociais cometem muitos erros, levando ao silenciamento inconsistente e indevido de partes da população. Assim, o que se pode afirmar com mais segurança é que, na melhor das hipóteses, água de banho e bebê serão jogados fora juntos.

Inicialmente, é um enorme desafio jurídico e técnico definir com precisão o que exatamente seria desinformação (ou um “fato notoriamente inverídico ou gravemente descontextualizado”). De um lado, a letra da lei não é exata e a avaliação sobre o que se enquadra no conceito é altamente contextual e subjetiva. De outro, a avaliação algorítmica pode ser pouco acurada, fazendo com que o uso de automação para essa finalidade produza erros em escala. Assim, é alarmante que a resolução delegue a modelos algorítmicos e companhias privadas a missão de determinar a legalidade dos discursos online e os rumos do debate público num momento tão crítico, como é o eleitoral.

O uso de algoritmos na moderação de conteúdo, particularmente em larga escala, traz uma nova dimensão de riscos, como demonstrado pelo laboratório do Prof. Flavio Calmon, da Universidade Harvard. Ele e sua equipe treinaram mais de 60 modelos de inteligência artificial usados para a moderação de conteúdo. No teste, esses modelos igualmente bons tinham discordâncias em até 34% do conteúdo que eles analisavam, além de terem apresentado efeitos discriminatórios, dependendo de características demográficas. Isso nos mostra que o atual estado da arte das ferramentas de moderação de conteúdo é bem menos confiável do que se imagina.

Além disso, cabe mencionar que a ampliação dos deveres – e do poder – das plataformas não é acompanhada por medidas adequadas de transparência.  O artigo 9º-D da resolução, por exemplo, prevê uma série de obrigações a tais agentes, como o planejamento e execução de ações corretivas e preventivas, o aperfeiçoamento de seus sistemas de recomendação, ferramentas e funcionalidades de moderação de conteúdo. Mas nesse rol, requer-se tão somente uma “transparência dos resultados alcançados”. Não há nenhuma menção a transparência dos processos que gerarão esses resultados.

Nesse sentido, trazemos atenção a alguns pontos que acadêmicos levantam sobre o uso de algoritmos em larga escala. Pascal Konig chama essa confiança excessiva sobre modelos algoritmos de “leviatã algorítmico”, referindo-se à sua utilização para gerenciar o acesso a recursos importantes na sociedade.[1]

A moderação de conteúdo online, se usada como uma panaceia para problemas tão complexos e sem as devidas medidas de transparência, tem o potencial de produzir prejuízos de forma pervasiva, restringindo a liberdade de expressão de cidadãos e entregando resultados ilegais, discriminatórios e injustos.

No afã de garantir a normalidade e lisura do pleito, a resolução propõe um conjunto de normas para combater conteúdos prejudiciais nas mídias sociais, mas sem clareza de como elas serão interpretadas e aplicadas por plataformas, candidatos e juízes. Embora a resolução tenha méritos, ela pode promover insegurança jurídica e restringir de forma desproporcional a liberdade de expressão de cidadãs e cidadãos, incentivando medidas intensivas e desproporcionais de rastreabilidade e vigilância.

Os debates que ela tem levantado evidenciam os problemas que emergem da ausência de uma lei sobre o tema. Ao menos parte dos problemas mapeados, como medidas de transparência e devido processo legal, poderiam ter sido mitigados caso tivéssemos a aprovação legislativa de um marco normativo como o PL 2630/2020 (Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet).

[1] Pascal D König. 2020. Dissecting the algorithmic leviathan: On the socio-political anatomy of algorithmic governance. Philosophy & Technology 33, 3 (2020), 467–485.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *