Desafios globais sobre IA e deep fakes nos processos eleitorais

Spread the love

Com a crescente utilização de tecnologias digitais e inteligência artificial nas campanhas eleitorais, os sistemas democráticos enfrentam um novo espectro de desafios jurídicos e institucionais.

As operações de influência e campanhas de desinformação por meio de deep fakes se tornaram armas cada vez mais sofisticadas, ameaçando a integridade dos processos eleitorais. A combinação de inovação tecnológica e desinformação coloca em xeque a confiança do eleitorado e a estabilidade das instituições democráticas.

Assine a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas do dia no seu email

Característico da ciência política e das relações internacionais, o conceito de “operações de influência” refere-se ao conjunto de esforços coordenados por atores estatais e não estatais visando manipular a opinião pública e afetar processos domésticos dos Estados.

Na atualidade, essas operações usam ferramentas digitais para atingir seus objetivos, com a IA sendo uma das principais aliadas. Segundo o Relatório sobre Riscos Digitais das Eleições de 2024, do Stern Center da Universidade de Nova York, as inovações tecnológicas, a digitalização e artificialização do discurso possibilitaram a criação de narrativas falsas com um alcance e uma velocidade sem precedentes para os pleitos eleitorais desse ano em grandes democracias, como vem ocorrendo na União Europeia, nos Estados Unidos e no Brasil.

Deep fakes podem ser veiculadas por conteúdos sintéticos ou manipulados por IA, como materiais de áudios e vídeos enganosos de figuras públicas. Exemplo disso foi a disseminação de deep fakes durante as eleições para o Parlamento Europeu em 2024, quando vídeos falsos apresentavam apoios fictícios a candidatos da extrema direita por personalidades confiáveis, evidenciando o potencial desestabilizador dessas práticas.

Nos Estados Unidos ficou escancarada a grosseira utilização da imagem da cantora Taylor Swift, supostamente a apoiar o ex-presidente Donald Trump em sua atual campanha eleitoral contra a candidata Kamala Harris.

A proliferação de deep fakes e desinformação tem impactos diretos na confiança pública nas instituições democráticas. Relatórios influentes de organizações como Nações Unidas, Conselho da Europa e União Europeia apontam que a desinformação, particularmente em contextos eleitorais, contribui para a polarização política, a percepção de insegurança nos processos de votação e falso endosso de apoios políticos que são inexistentes.

Como também experimentado no Brasil e nos Estados Unidos, o impacto de campanhas de desinformação, respectivamente nas eleições de 2020 e 2022, foi devastador, com alegações infundadas de fraudes eleitorais fomentando violentos ataques à democracia, como os infames eventos de 6 de janeiro de 2021 no Capitólio, em Washington, e 8 de janeiro de 2023 na Praça dos Três Poderes, em Brasília.

Um cenário nada vibrante ou promissor levanta importantes discussões a respeito da necessidade premente e legitimidade de regulação “dura” sobre o uso de IA e deep fakes em contextos eleitorais. As instituições têm começado a tomar medidas para mitigar os efeitos prejudiciais dessas tecnologias e seus efeitos deletérios para o funcionamento das eleições democráticas.

Na Europa, a entrada em vigor do Regulamento de Serviços Digitais (DSA) e do Regulamento de Inteligência Artificial (AI Act) já consolida um marco regulatório que busca garantir a transparência e a responsabilização de agentes não estatais, como organizações e empresas. Elas podem ser responsabilizadas quando deixarem de tomar medidas diante de conteúdo infrativo ou de adequadamente detectar e divulgar se resultados dos sistemas de IA são artificialmente gerados ou manipulados, como os empregados com intuito de influenciar ou desestabilizar pleitos eleitorais.

O Brasil, por sua vez, também deu passos significativos desde fevereiro deste ano. O Tribunal Superior Eleitoral (TSE) tem implementado resoluções que proíbem o uso de deep fakes em campanhas eleitorais, estabelecem restrições ao uso de bots e assistentes virtuais em campanhas e exigem a rotulagem de conteúdos manipulados.

A Resolução 23.732/2024, por exemplo, estabelece obrigações claras para as plataformas digitais na detecção e remoção de conteúdos prejudiciais. A escolha de política normativa e as novidades trazidas pela Resolução do TSE, pela própria regra contida no art. 57-J da Lei Eleitoral brasileira, não parecem exorbitar competências do Legislativo no contexto de produção normativa em matéria de direito eleitoral.

Ao contrário, elas capturam a existência de novas tecnologias ao âmbito de aplicação de certas regras de conduta no campo eleitoral, em linha com as atribuições normativas e fiscalizatórias do tribunal. Afinal, ali também subsiste uma função preventiva para disputas eleitorais, mesmo porque serão os tribunais – no âmbito da Justiça Eleitoral – os futuramente acionados para responder a questões interpretativas e adjudicar litígios em torno de novas tecnologias aplicadas ao ambiente eleitoral.

Juristas preocupados com a higidez do sistema eleitoral e com a segurança do ambiente digital brasileiro devem se comprometer com a compreensão analítica das implicações legais da IA, do uso descontrolado de deep fakes e do exercício legítimo dos direitos e liberdades comunicativas e informativas. Não poderiam, como alguns tem feito indiscriminadamente no caso da suspensão do acesso à plataforma X pelas violações à lei brasileira, empregar um subterfúgio cínico a respeito de defesas seletivas em liberdade de expressão ou livre iniciativa econômica para a exclusão de responsabilidades.

As condutas de escrutinar atos ilícitos e de sancionar maus atores permanecem, portanto, papeis fundamentais de agentes de aplicação das leis no Brasil e componentes centrais da jurisdição do Estado brasileiro. Paralelamente, existe uma demanda enorme na academia, advocacia, no Judiciário e Legislativo brasileiros quanto à discussão e elaboração de políticas que levem em consideração tecnologias emergentes e aplicações de IA.

Responsabilidades e obrigações de agentes, bem como a proteção dos cidadãos contra a desinformação, devem ser o foco de um debate jurídico engajado com cidadania digital e com a exata e necessária presença das instituições democráticas em nossas vidas.

Iniciativas direcionadas ao fortalecimento das legislações, à implementação de sistemas de auditoria e ao desenvolvimento de melhores práticas para o uso responsável, ético e transparente de tecnologias baseadas em IA são essenciais no presente e futuro. Um manifesto mais afinado com as profissões jurídicas permanecerá na oportunidade de moldar a maneira como as políticas, as leis e decisões judiciais respondem às inovações digitais, garantindo que direitos fundamentais sejam respeitados e não sistematicamente violados.

O futuro das eleições será, sem dúvida, baseado no espectro digital, mas não sem desafios concretos que colocam à prova a ausência de um debate humanista mais acurado também no aparente “livre desenvolvimento” e implementação de tecnologias baseadas em IA por parte da indústria e seu manejo político, muitas vezes absolutamente conivente com a deterioração da paz e da democracia em diferentes partes do mundo.

Por essas razões, a combinação entre IA e deep fakes representa uma nova fronteira nas batalhas eleitorais que exigem nossa atenção. O desenvolvimento de um marco legal robusto e socialmente responsivo para IA será necessário para preservar a integridade dos processos eleitorais e a confiança pública aqui no Brasil, como já tem sido ao redor do globo e não seria diferente.

Ao navegarmos por uma nova dimensão da tecnodiceia, nossa capacidade de discernir e responder às ameaças legais trazidas pela manipulação, da fraude e da distorção de resultados a partir de plataformas sociodigitais será fundamental. Aliás, será um pleito válido para qualquer forma de irrestrita proteção dos valores democráticos que todos buscaremos defender.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *