No mundo atual, a percepção das dificuldades não pode mais se dissociar do remanejamento dos quadros funcionais.
Pensando mais a longo prazo, a percepção das dificuldades possibilita uma melhor visão global dos métodos utilizados na avaliação de resultados.

pensamento do dia

Assim mesmo, a complexidade dos estudos efetuados ainda não demonstrou convincentemente que vai participar na mudança dos métodos utilizados na avaliação de resultados.

Inovação tecnológica e inovação jurídica: das fake news às deepfakes

Spread the love

O Brasil, como todo o mundo, está em meio a uma dinâmica de aprendizagem regulatória sobre quais as formas jurídicas adequadas para lidar com as tecnologias digitais, transformando suas ameaças – à democracia, à sanidade mental, à cultura – em riscos controláveis e em oportunidades de avançar o crescimento econômico, a pluralização das expressões e o bem-estar social.

Um pacote regulatório vem sendo construído desde o Marco Civil da Internet (2014) e a Lei Geral de Proteção de Dados (LGPD, 2018, com sanções administrativas plenamente aplicáveis apenas desde 2021). O PL das Fake News, aprovado pelo Senado em 2020, continua emperrado na Câmara dos Deputados. Enquanto isso, a tecnologia vai progredindo e seus perigos vão se acumulando.

Em 2018, nas primeiras eleições em que esteve em vigor a proibição do financiamento empresarial de campanhas eleitorais, estivemos expostos também, em uma proporção inédita, à disseminação massiva de desinformação por aplicativos de mensageria privada e plataformas digitais. Não parece ter sido coincidência: afinal, a propagação em grande escala de conteúdo distorcido demanda investimento – feito por agentes políticos e seus apoiadores, ainda que sem a formalidade da doação eleitoral, mas como um equivalente funcional.

O Tribunal Superior Eleitoral (TSE) adotou naquelas eleições gerais de 2018 (de âmbito federal e estadual) uma postura de alta precaução, privilegiando a liberdade de expressão e informação dos cidadãos em detrimento de qualquer atuação mais intervencionista de regulação da esfera pública digital. É compreensível que, com a debilidade da legislação à época (sequer a LGPD estava em vigor, frise-se), o Tribunal não tenha adentrado temas como a proteção de dados ou o discurso de ódio. Entretanto, a postura libertária tem seu custo: mantém a distorção na competição eleitoral, favorecendo aqueles que se beneficiam de esquemas paralelos de financiamento e de estratégias de propaganda eticamente condenáveis.

Nas eleições municipais de 2020, ainda sequer as sanções administrativas previstas na LGPD estavam em vigor, de modo que o arcabouço regulatório continuou um tanto quanto débil. Nas eleições de 2022, a Justiça Eleitoral protagonizou campanhas em defesa da higidez do sistema eleitoral, combinadas a estratégias de monitoramento e checagem de fatos e a uma disseminação da desconfiança popular (ou senso crítico) sobre a verdade factual da informação que circula nas redes.

De todo modo, o envenenamento da opinião pública pela desinformação virtual mostrou sua face real e violenta no início de 2023, quando a crença na fraude eleitoral motivou a expressão da mais completa anomia em meio aos prédios do Três Poderes. Em resposta, desencadeou-se um imenso protagonismo do STF em sua função punitiva e repressiva.

Mas e a dimensão preventiva? Ainda na falta de marcos legais que institucionalizem uma estratégia de acoplamento estruturado entre a autorregulação das plataformas digitais e a supervisão estatal (como prometia a certo momento o PL das Fake News), o TSE assumiu o protagonismo regulatório para estas eleições municipais de 2024. Vale lembrar que a Justiça Eleitoral, criada em 1932 em meio ao governo provisório de Vargas, tem não apenas uma função jurisdicional e contenciosa, mas também um papel administrativo, de organização dos processos eleitorais. Nessa linha é que se enquadra a Resolução 23.732/2024.

A normativa não obsta o desenvolvimento tecnológico da inteligência artificial nem proíbe seu uso no marketing eleitoral. Exige, em primeiro lugar, transparência – o conteúdo gerado por IA deve ser claramente sinalizado como tal. Nessa linha parece caminhar a incorporação da inteligência artificial nos vários setores da sociedade: desde trabalhos acadêmicos até a organização de bases de dados empresariais, jurisprudenciais, etc. Deve ser claramente distinguida a informação gerada e processada por pessoas identificáveis e aquela produzida por processos digitais autorreferentes (IA generativa).

Em segundo lugar, a Resolução do TSE proíbe o deepfake – manipulações audiovisuais que confundem o espectador (ou ouvinte) pelo grau de semelhança com a imagem e/ou a voz de pessoas reais, gerando, portanto, a confusão na atribuição de autoria a opiniões, declarações e condutas. Finalmente, a Resolução proíbe o uso de chatbots (robôs virtuais de bate-papo) e avatares na comunicação entre candidatos e eleitores, gerando uma simulação de interação direta entre as pessoas, quando na verdade se trata (em um ou em ambos os polos) de comentários gerados autorreferencialmente pela programação digital e seus algoritmos.

Em primeiro lugar, cabe notar que se trata de um problema regulatório global – se não é possível deixá-lo somente à mercê da autorregulação transnacional das plataformas digitais, cada país terá que arriscar suas estratégias regulatórias e aprender com seus erros e com a experiência comparada.

Assim como os escândalos de violação de dados pessoais para o direcionamento de campanhas de desinformação (protagonizados pela Cambridge Analytica) marcaram a votação do Brexit (2016) e a eleição de Donald Trump (2016), impulsionando respostas regulatórias mundo afora (como a tramitação da LGPD por aqui e a implementação do Regulamento Geral sobre a Proteção de Dados na União Europeia), neste ano as eleições municipais brasileiras correm em paralelo com eleições americanas, britânicas e de outras democracias de massas.

Enquanto isso, na União Europeia, por exemplo, progridem novas iniciativas de regulação digital – agora em março entrou em vigor a Lei de Mercados Digitais (Digital Markets Act) e um regulamento da Inteligência Artificial deve ser aprovado ainda neste primeiro semestre.

Em segundo lugar, é fato que ainda há imprecisões e obscuridades na resolução, as quais geram inseguranças que somente serão controladas ao longo da experiência de sua implementação e execução. Na impossibilidade de tratar as plataformas digitais como idênticas às empresas da mídia tradicional de massas (que editorializa, seleciona e produz suas notícias), quais são os limites da responsabilização daquelas por conteúdos publicados por seus usuários? Qual a eficácia exigível e monitorável das medidas preventivas e de autocontrole da desinformação requeridas das plataformas?

Se uma grande medida de controle e responsabilidade pode ser exigida de plataformas abertas de textos, áudio e vídeo, como impedir a circulação de conteúdo falso e narrativas distorcidas em grupos privados de serviços de mensageria privada? A última questão é um ponto cego desde as eleições de 2018. Com a garantia de criptografia das conversas privadas, como poderiam esses serviços monitorar o conteúdo distorcido que neles circula?

Finalmente, na falta de órgãos e estratégias regulatórias mais eficientes que alinhem a autorregulação tecnológica e jurídica das plataformas digitais à corregulação estatal, descentralizada e participativa em sua abertura para movimentos e associações de direitos digitais, um hibridismo entre jurisdição e administração é esperado do TSE. Ora terão que ser definidas e implementadas políticas mais gerais, ora a identificação e punição do conteúdo proibido (chatbots e deepfake) dependerá de denúncias localizadas e dos ritos, prazos e garantias do processo judicial, que nem sempre acompanham o timing eleitoral e os efeitos disruptivos, instantâneos e exponenciais da comunicação em rede.

A cada dois anos, as eleições brasileiras fornecem um teste de resistência e aprendizagem da democracia e um teste da capacidade do sistema jurídico de acompanhar o passo dos usos e abusos da inovação tecnológica.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *