No mundo atual, a percepção das dificuldades não pode mais se dissociar do remanejamento dos quadros funcionais.
Pensando mais a longo prazo, a percepção das dificuldades possibilita uma melhor visão global dos métodos utilizados na avaliação de resultados.

pensamento do dia

Assim mesmo, a complexidade dos estudos efetuados ainda não demonstrou convincentemente que vai participar na mudança dos métodos utilizados na avaliação de resultados.

Deepfakes: uma tecnologia de riscos e desafios legais

Spread the love

Deepfakes são vídeos criados por inteligência artificial que imitam a aparência, expressões e voz de uma pessoa. O termo resulta da combinação de “deep learning” (aprendizado profundo) e “fake” (falso).

O deep learning, uma evolução do machine learning, visa ensinar a IA a interpretar dados e tomar decisões. O material falso é gerado a partir de conteúdos reais, que são alterados por meio de aplicativos ou programas de edição.

Assine a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas no seu email

Essa tecnologia ganhou destaque principalmente por seu uso em paródias e sátiras, muitas vezes envolvendo figuras públicas. No entanto, também pode ser empregada para manipulação de informações, prejudicando a percepção da realidade das pessoas.

Os usos mais alarmantes dessas ferramentas vão desde a criação de vídeos pornográficos com o rosto de outras pessoas até a manipulação política. A título de exemplo, em 2020, um relatório da empresa Sensity revelou que imagens de mais de 100 mil mulheres nuas, produzidas por inteligência artificial, eram compartilhados online. No contexto eleitoral, uma edição fez com que a apresentadora do Jornal Nacional Renata Vasconcellos apresentasse uma pesquisa mentirosa.

Não obstante o potencial prejudicial da ferramenta, a regulamentação sobre deepfakes é incipiente e dispersa em todo o mundo, com diversas abordagens jurídicas. Enquanto alguns países optaram por legislar contra o uso indevido de deepfakes a nível individual, outros focaram em regular plataformas tecnológicas que disseminam esses tipos de conteúdo. Além disso, as jurisdições têm adotado diferentes tipos de sanções: enquanto algumas impõem penalidades civis, outras estabeleceram normas criminais.

Ainda há divergência sobre quais aspectos do processo de criação e disseminação de deepfakes devem ser considerados crime. No Reino Unido, por exemplo, a criminalização se concentra no compartilhamento de deepfakes explícitos não consensuais, mas a criação desse conteúdo ainda não é ilegal. Em contraste, a Coreia do Sul adota uma abordagem mais rigorosa, tornando crime não apenas criar e compartilhar, mas também assistir a pornografia deepfake.

O presente artigo visa analisar as regulações vigentes, bem como descrever propostas legislativas que objetivam dispor sobre a matéria no Brasil, uma vez que as diferenças demonstram a complexidade da regulamentação de uma tecnologia que avança rapidamente.

O desafio da criação de deepfakes em diferentes jurisdições

Reino Unido e Austrália

Diante desse cenário, o Online Safety Act, aprovado em outubro de 2023, tornou ilegal a disseminação e compartilhamento de deepfakes pornográficos não consensuais no Reino Unido. A criação de deepfake, contudo, não é criminalizada. Desde abril de 2024, há tentativas de promover legislações sobre a matéria. No entanto, a criminalização de deepfakes não consensuais não foi um tema incluso nas prioridades legislativas do governo.

No mesmo sentido, o governo australiano aprovou o Projeto de Lei de Emenda ao Código Penal (Material Sexual Deepfake) em 2024. Trata-se da introdução de novas infrações criminais para proibir o compartilhamento de pornografia gerada por inteligência artificial. Essa legislação impõe penas severas, incluindo até seis anos de prisão pelo compartilhamento desse material, e até sete anos para sua criação e compartilhamento. O projeto visa combater o abuso prejudicial de conteúdo criado digitalmente, frequentemente usado para degradar e humilhar as vítimas, predominantemente mulheres e meninas.

União Europeia

Por outro lado, a União Europeia adotou medidas rigorosas de segurança online e regulamentação de IA, exigindo que plataformas garantam que seus modelos de tenham barreiras que impeçam a criação de conteúdo explícito não consensual. A legislação da UE também obriga as plataformas a removerem rapidamente materiais íntimos não consensuais postados por usuários.

Várias novas leis de abrangência da União Europeia mudaram o foco para as plataformas que hospedam deepfakes, em vez de para as pessoas que os criam ou distribuem. O 2022 Digital Services Act, por exemplo, exige que as plataformas sejam transparentes sobre políticas de moderação e aplicação, bem como sobre os procedimentos de remoção. O 2024 AI Act, por sua vez, exige que os prestadores de serviços informem aos usuários quando estão interagindo com conteúdo gerado por IA — incluindo se este “semelhante de forma apreciável a pessoas, objetos, lugares, entidades ou eventos existentes”.

Coreia do Sul

A Coreia do Sul possui um dos regimes legislativos mais rígidos em relação à criação de mídias por inteligência artificial, introduzido após a indignação pública com um aumento no abuso de imagens deepfake, especialmente em escolas.

No final de 2023, a Assembleia Nacional da Coreia do Sul alterou a Lei Eleitoral de Funcionários Públicos para proibir o uso de deepfakes e mídia manipulada dentro de 90 dias após uma eleição. As violações desta lei podem resultar em penas de até sete anos de prisão e multas de 50 milhões de won. Além disso, a Comissão Nacional de Eleições exige que as campanhas políticas divulguem qualquer uso de conteúdo gerado por IA.

Ademais, de acordo com a Lei de Casos Especiais Relativos à Punição de Crimes Sexuais, indivíduos que editam ou processam imagens, vídeos ou áudio direcionados ao rosto, corpo ou voz de uma pessoa para causar “desejo sexual ou vergonha”, sem seu consentimento, podem enfrentar penalidades severas. Em vigor desde 2020, esta Lei abrange a publicação de conteúdo editado ou processado.

Em setembro de 2024, a Coreia do Sul alterou a lei para aumentar a pena máxima para esse crime para 7 anos, independentemente da intenção de distribuir; e proibir a compra, armazenamento ou visualização de tal material, com penas de até 3 anos de prisão ou multa de até KRW 30 milhões.

O governo também considera expandir os poderes de fiscalização para autorizar investigações online secretas, mesmo quando as vítimas são adultos, permitindo que as autoridades confisquem os lucros de empresas de pornografia deepfake e impondo multas mais rígidas às plataformas de mídia social que não conseguem impedir a disseminação de conteúdo ilegal.

Singapura

Singapura também adotou uma postura regulatória proativa com sua lei recém-aprovada para combater deepfakes e outros conteúdos manipulados digitalmente durante as eleições. O Projeto de Lei de Eleições (Integridade da Publicidade Online) (Emenda) proíbe a publicação de conteúdo gerado digitalmente ou manipulado durante as eleições que retrate de forma realista um candidato fazendo ou dizendo algo que não fez, aplicando-se à publicidade eleitoral online assim que o mandado de eleição for emitido até o fechamento das urnas.

Estados Unidos

Não obstante a apresentação de Projetos de Lei de IA no Congresso, nenhum regulamento abrangente de IA foi aprovado nos Estados Unidos. Dada a falta de orientação federal, as legislações estaduais dos Estados Unidos criam um mosaico regulatório  complexo para os usuários e empresas de tecnologia. Dentre as legislações estaduais, o Tennessee se destaca com a Lei HB 2091, conhecida como ELVIS, que atualiza a Lei de Proteção de Direitos Pessoais do Tennessee, proibindo o uso não autorizado da IA para imitar a voz de uma pessoa.

Vale ressaltar que há projetos de lei federal que visam a proteção de vítimas de deepfakes. O Defiance Act concede às vítimas de falsificações sexuais explícitas não consensuais o direito de processar quem as cria, distribui ou recebe conscientemente. Ademais, o Shield Act, criminalizaria o compartilhamento de imagens privadas ou sexualmente explícitas sem consentimento, mesmo que sejam artificiais. Ambos os projetos focam nas ações dos usuários, e não nas ferramentas de IA ou plataformas usadas para compartilhar o conteúdo.

Iniciativas nacionais para regularização da ferramenta

Nos últimos anos, o Brasil avançou no campo legislativo sobre o uso indevido de deepfakes, uma vez que diversos projetos de lei buscam abordar diferentes aspectos dessa problemática, desde a criação de conteúdo falso até a proteção dos direitos da personalidade, especialmente em contextos de abuso e desinformação.

Nesse contexto, há 20 projetos de lei em tramitação que visam criminalizar o uso de inteligência artificial para criação de conteúdos pornográficos. Dentre esses, destaca-se o PL 9930/2018, de autoria da deputada Erika Kokay (PT-DF), que criminaliza a divulgação, sem consentimento, de imagens, vídeos ou outros materiais que envolvam a intimidade de mulheres.

A proposta, em tramitação no Senado, sugere a inclusão de um novo artigo no Código Penal (Decreto-Lei 2.848/40), estabelecendo uma pena de detenção de três meses a um ano, além de multa, para quem cometer esse crime.

No mesmo sentido, o PL 3902/2023 propõe uma alteração na Lei 12.965, de 23 de abril de 2014 (Marco Civil da Internet), com o objetivo de coibir a criação, distribuição e comercialização de aplicativos e programas destinados à criação de imagens ou vídeos pornográficos falsos. A proposta visa, assim, criminalizar o uso de deepfakes com a finalidade de abuso sexual, abordando um dos principais riscos dessa tecnologia: a violação dos direitos da personalidade de indivíduos, principalmente mulheres e meninas, sem seu consentimento.

Ademais, o PL 5695/2023 tipifica penalmente a alteração de fotos, vídeos e áudios utilizando sistemas de inteligência artificial com a intenção de praticar violência contra a mulher. Este projeto destaca um dos usos mais prejudiciais do deepfake: sua utilização como ferramenta de assédio e violência psicológica. A proposta visa agravar as penas para crimes de violência doméstica quando envolvem a manipulação de conteúdo digital, considerando que esse tipo de abuso pode causar danos irreparáveis à reputação e à saúde mental das vítimas.

Os projetos PL 5722/2023 e PL 5721/2023 têm como foco o aumento das penas para quem utiliza IA para criar ou modificar conteúdos digitais, como imagens e vídeos, com o intuito de prejudicar, humilhar ou expor as vítimas de maneira indevida. Ambas as iniciativas tratam da criação de cenas de nudez ou atos sexuais falsificados sem o consentimento da pessoa afetada.

Além disso, outro contexto crítico em que o deepfake pode ter efeitos devastadores é durante campanhas eleitorais. Isso porque a manipulação de dados e a criação de desinformação podem alterar o curso de uma eleição e manipular a opinião pública, minando a confiança no processo democrático.

Não é por acaso que, no contexto da Justiça Eleitoral, a recente Resolução 23.732/2024 do Tribunal Superior Eleitoral proibiu a utilização de deepfakes com o objetivo de beneficiar ou prejudicar candidaturas específicas. Em sintonia com essa medida, o PL 5242/2023 altera a Lei 9.504, de 30 de setembro de 1997 (Lei das Eleições), propõe proibir a criação e disseminação de deepfakes durante períodos eleitorais.

O terceiro debate relacionados às deepfakes no legislativo é o uso de imagens e áudios de pessoas falecidas. Os PLs 3592/2023, 3608/2023 e 3614/2023 surgem como propostas para estabelecer diretrizes que garantam a proteção da dignidade, da privacidade e dos direitos das pessoas, mesmo após a morte.

Além disso, outras iniciativas de regulamentação sobre o uso de inteligência artificial têm sido discutidas no Congresso Nacional. O PL 4025/2023, por exemplo, propõe alterações no Código Civil e na Lei de Direitos Autorais, abordando tanto o uso de imagens e sons de pessoas vivas quanto falecidas, assim como os direitos autorais relacionados a essas produções digitais.

Desafios e perspectivas para regulação dos deepfakes

Em resumo, o fenômeno dos deepfakes revela um desafio complexo e crescente para a sociedade global, uma vez que o uso de inteligência artificial para criar conteúdo falso, especialmente os que envolvem violação da privacidade e disseminação de desinformação, tem consequências profundas, especialmente no contexto de violência, assédio e manipulação de informações.

As diferentes abordagens legislativas adotadas por países ao redor do mundo refletem a urgência em enfrentar essas questões de forma eficaz, com a criação de leis que busquem responsabilizar tanto os criadores quanto as plataformas de distribuição.

Sob essa perspectiva, o avanço legislativo sobre a matéria é uma resposta necessária para coibir o uso indevido de deepfakes no Brasil, incluindo a criminalização de conteúdos abusivos e a proteção da democracia. O progresso da tecnologia exige uma adaptação das legislações, visando a proteção das vítimas e a manutenção de um ambiente digital seguro e confiável.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *