Uso da inteligência artificial e suas implicações legais

Spread the love

Os avanços tecnológicos, particularmente no campo da inteligência artificial (IA), têm transformado a sociedade como um todo. Apesar dos inúmeros benefícios e avanços, é imprescindível manter um olhar atento quanto ao uso dessa tecnologia e suas implicações jurídicas.

O uso da IA pode assumir várias formas, algumas de licitude questionável já bastante conhecidas, como os deepfakes, bots nas redes sociais, fake news, dentre outros. Enquanto este tsunami de questões inunda a sociedade, é com preocupação e interesse que se desenvolvem os debates sobre os aspectos de uso dessa tecnologia de forma desregulada, principalmente os impactos éticos e legais, de modo a proteger os direitos, a segurança dos cidadãos e o próprio Estado democrático de Direito.

O termo deepfake vem da combinação das palavras “deep learning” (aprendizado profundo) e “fake” (falso). Ele se refere ao uso de algoritmos de aprendizado profundo, uma forma de inteligência artificial, para criar mídias manipuladas que podem ser quase indistinguíveis da realidade. Essa tecnologia é capaz de trocar rostos, vozes e até mesmo criar cenas fictícias convincentes.

Um exemplo de uso de deepfake pode ser encontrado em uma campanha publicitária veiculada pela Volkswagen em 2023, que “ressuscitou” a cantora Elis Regina por meio de IA e levantou questões éticas e legais sobre direitos autorais e precauções com a tecnologia.

O termo fake news, em português “notícias falsas”, refere-se a informações enganosas, imprecisas ou fabricadas que são apresentadas como se fossem verdadeiras. Essas notícias falsas podem ser criadas e disseminadas intencionalmente para enganar o público, manipular opiniões, influenciar decisões ou causar confusão.

Além de se espalharem rapidamente, especialmente através das redes sociais e outras plataformas online, alcançando um grande número de pessoas, e abranger uma variedade de tópicos, desde eventos políticos e sociais até questões de saúde e entretenimento, as fake news podem ter sérias consequências, minando a confiança na informação, distorcendo a percepção da realidade e contribuindo para a propagação de desinformação.

No Brasil, a proteção dos direitos autorais e da propriedade intelectual é regida principalmente pela Lei de Direitos Autorais (Lei 9.610/98), que estabelece os direitos dos autores sobre suas obras e as limitações ao direito autoral, assim como pela Lei de Propriedade Industrial (Lei 9.279/96). Essas legislações protegem uma ampla gama de expressões criativas, incluindo obras literárias, artísticas, musicais e audiovisuais, além de invenções e tecnologias diversas.

Além disso, o Marco Civil da Internet (Lei 12.965/14) e a Lei Geral de Proteção de Dados Pessoais (Lei 13.709/18) também têm relevância nesse contexto. O Marco Civil da Internet estabelece princípios, garantias e direitos para o uso da Internet no Brasil, enquanto a Lei Geral de Proteção de Dados regula o tratamento de dados pessoais por parte de empresas e organizações, visando proteger a privacidade dos usuários. Toda essa legislação é relevante nos casos que envolvem inteligência artificial, especialmente em razão da multidisciplinariedade que esses complexos contextos abarcam.

A fim de estabelecer normas, diretrizes e mecanismos de transparência nas redes sociais e quantos aos serviços de mensagem privada através da internet, além de desestimular o seu abuso ou manipulação, temos em trâmite no Brasil o PL 2630/20, conhecido como PL das Fake News, que institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet.

Embora o foco principal do PL das Fake News seja a desinformação, ele também pode ter implicações no combate à violação à propriedade intelectual no ambiente digital. Muitos dos conteúdos compartilhados nas redes sociais e outras plataformas são protegidos por direitos autorais, tais como notícias, artigos, vídeos, imagens e músicas. A disseminação não autorizada desses conteúdos pode violar os direitos dos seus criadores, levantando questões sobre a responsabilidade das plataformas e adoção de medidas de monitoramento e controle, como remoção de conteúdos ilegais, desde que não sejam utilizadas como pretexto para censurar opiniões legítimas ou restringir o debate público.

A disseminação de notícias falsas, impulsionada por algoritmos de IA, é uma ameaça real que impacta também a integridade do processo eleitoral no Brasil e no mundo. A preocupação com a manipulação de informações e a proliferação de conteúdos enganosos cresce exponencialmente. A deepweb, por exemplo, torna-se um terreno fértil para atividades ilegais e desafios na rastreabilidade de práticas nefastas, cujo anonimato obstaculiza a responsabilização. A natureza transnacional da internet demanda uma colaboração internacional mais estreita. Questões de jurisdição e cooperação entre países tornam-se cruciais para enfrentar ameaças que ultrapassam fronteiras.

No cenário eleitoral, a capacidade das fake news de influenciar a opinião pública e moldar o resultado das eleições representa um desafio significativo para os sistemas democráticos em todo o mundo. Em um ambiente onde a confiança na informação é essencial para uma participação cívica informada, a disseminação deliberada de desinformação pode minar a legitimidade do processo democrático.

O uso indevido de inteligência artificial em campanhas políticas pode assumir várias formas, muitas das quais estão relacionadas à disseminação de desinformação e manipulação de informações para influenciar a opinião pública. Além de disseminação de fake news e manipulação de imagens e vídeos, existe também o microtargeting e a personalização de mensagens.

O microtargeting e a personalização de mensagens acontecem quando algoritmos de IA analisam grandes volumes de dados sobre os eleitores e segmenta os mesmos com base em características demográficas, interesses e comportamentos. Isso permite que as campanhas políticas personalizem suas mensagens para diferentes grupos de eleitores, maximizando o impacto de suas comunicações.

Os bots de redes sociais, alimentados por IA, podem ser programados para espalhar propaganda política e desinformação nas redes sociais, amplificando determinadas mensagens e criando a ilusão de apoio popular a determinados candidatos ou ideologias.

Nas eleições presidenciais dos EUA em 2016 houve relatos de que grupos políticos e entidades estrangeiras utilizaram bots de redes sociais e campanhas de desinformação baseadas em IA para influenciar o resultado das eleições.

Durante as eleições gerais no Brasil em 2018, surgiram preocupações sobre o uso de bots e estratégias de desinformação baseadas em IA para influenciar o resultado do pleito. No referendo sobre a saída do Reino Unido da União Europeia em 2016, grupos pró-Brexit usaram bots de redes sociais e campanhas de desinformação baseadas em IA para influenciar o resultado e promover a saída do Reino Unido do bloco europeu. Com a proximidade das eleições americanas, teremos uma visão maior do impacto do uso da IA em larga escala e certamente os debates sobre sua regulação estarão em demanda em todo o mundo.

Sem dúvida alguma, os advogados atuantes da área da propriedade intelectual devem voltar-se para a importância de regulamentar e monitorar de perto o uso de IA, a fim de evitar o uso indevido de imagem, marcas, direitos autorais e tantos outros bens de grande valor para as empresas e pessoas.

O fato é que, no mundo atual, está cada vez mais difícil a distinção entre o real e o fabricado, pois estamos diante de tecnologias ainda sem regulação devida, que podem distorcer a percepção da realidade, alimentar divisões sociais, polarizar o debate público e criar um ambiente de desconfiança e hostilidade. Encontrar um equilíbrio entre proteger a propriedade intelectual e preservar os direitos individuais, como a liberdade de expressão, é essencial para enfrentar de forma eficaz os desafios da atualidade.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *