CONFIRA ESSAS EMPRESAS
SEGURO PARA MOTORISTA DE APP
COMECE HOJE MESMO
CLASSIFICADOS
ABRIR O CATÁLOGO DE MÁQUINAS
TUDO SOBRE SEGURO DE VIDAS
ALUGUEL TEMPORADA GUARAPARI PRAIA DO MORRO ES
O IMÓVEL É UMA COBERTURA NA PRAIA DO MORRO ES LINK A BAIXO VALOR DA DIÁRIA 500R$
NÚMERO DE DIÁRIAS MINIMO 3
QUERO SABER + / CONTATO DO IMÓVEL
QUERO SABER SOBRE O CAVALO COMO COMPRAR
O melhor da web
GANHE DINHEIRO NO AIRBNB
DRA LARISSA
CONFIRA O CANAL
CONFERIR PERFIL NO LinkedIn
CONFERIR
Quando se pensa no regramento das tecnologias digitais – particularmente, da inteligência artificial (IA) – as respostas à pergunta “por que regular?” definem o espectro de alternativas institucionais sobre “como regular”.
A regulação da IA pode ter diversos objetivos – e, por isso, seria interessante que a proposta de um Marco Regulatório da IA se desdobrasse em especificações legislativas, regulamentares e jurisprudenciais setoriais. Por exemplo, no campo eleitoral, podemos pensar que o objetivo é garantir um voto livre e informado, não distorcido por falsas informações e induções da percepção da realidade. É o ponto básico focado pela proibição das deepfakes e pela exigência de sinalização do conteúdo gerado por IA nas campanhas eleitorais, como dispôs a Resolução 23.732/2024, do TSE.
Há, porém, um ceticismo sobre a necessidade de regulação. Para desafiá-lo, precisamos apontar a riscos da falta de regulação, os quais são associáveis a três atores. Esses riscos são magnificados e retroalimentados quando não são de algum modo geridos e filtrados.
Primeiramente, temos as comunidades constituídas nas redes sociais e serviços de mensageria privada – os usuários, produtores e consumidores de conteúdo. Com a acessibilidade das ferramentas de IA generativa, exponencia-se a capacidade de geração de textos, áudios e vídeos que interferem na produção e percepção da realidade por meio de uma comunicação que circula de modo policêntrico e anárquico.
Nas comunidades baseadas nas redes e plataformas, disseminam-se condutas de autocensura, “linchamentos” de opinião e “cancelamentos”, em um verdadeiro “estado de natureza” virtual, que pode facilmente extravasar para o campo da violência física e das consequências concretas. Como resultando, tem-se um ambiente poluído, que distorce e conflagra, por exemplo, a arena eleitoral, maculando a liberdade de expressão e de informação.
Em segundo lugar, temos as empresas provedoras de tecnologia para a produção e circulação de informação em meio digital. Ao contrário dos meios tradicionais de comunicação de massa, como jornal, rádio e televisão, não se trata de editorialização e produção profissionais e centralizadas de conteúdo, a ser consumido massivamente.
A produção e a disseminação desintermediadas dos meios analógicos é reintermediada pelas plataformas digitais. De um lado, há um problema concorrencial: em geral, trata-se de big techs, que atuam em todos os elos da cadeia produtiva da comunicação: a IA generativa facilita a produção de informação, as plataformas as empacotam em mensagens e usos específicos e a IA preditiva facilita o direcionamento da compreensão pelos diferentes perfis de público.
Trata-se de um negócio lucrativo, que monetiza os dados e passos dos usuários das redes – o que estimula a inovação tecnológica, mas também dá margem aos abusos de um poder econômico concentrado. De outro lado, temos o problema da insuficiência da autorregulação. É verdade que as grandes plataformas digitais globais têm criado suas próprias regras, metodologias, procedimentos e instâncias de controle, revisão e moderação de conteúdo. Entretanto, a autorregulação pode ser tanto simbólica e ineficaz (valendo só como um escudo contra a regulação estatal) quanto autoritária e opaca aos cidadãos e autoridades públicas.
Em terceiro lugar, temos os riscos associados ao Estado: o medo de uma censura centralizada em determinada estrutura de comando e controle que supervisionaria cada conteúdo gerado e compartilhado nas redes pelas empresas e cidadãos. Na falta de uma regulação adequada, as respostas das autoridades podem beirar o arbítrio. Por exemplo, o Judiciário, quando provocado, é obrigado a responder. Na falta de uma programação prévia das regras substantivas e procedimentais para lidar com determinado tema, acaba decidindo com base no casuísmo e na conjuntura política, com dificuldades para consolidar padrões argumentativos e com tendência a extrapolar em decisões não isonômicas, nem previsíveis nem consensuais ou colegiadas.
A resposta à pergunta sobre “como regular” tem que considerar as vias possíveis para minorar esses riscos da falta de regulação e mais três fatores importantes: o conhecimento (especializado detido pelos próprios entes a serem regulados, as plataformas que desenvolvem e detêm a propriedade intelectual de suas tecnologias), o espaço (a transnacionalidade das plataformas, contraposta à nacionalidade do direito estatal) e o tempo (a necessidade de desenvolver uma articulação que permita renovar as regras acompanhando a velocidade da mudança tecnológica).
É em meio a esses desafios que se precisa encontrar uma intersecção entre os interesses materiais (o progresso tecnológico pode barretear e democratizar produtos, inclusive campanhas eleitorais) e os interesses morais (de garantia e aperfeiçoamento das liberdades, da democracia, da concorrência por mérito).
Nessa linha, o que um marco legislativo pode ofertar é: 1) substancialmente, uma metodologia para graduar e focar os riscos associados aos usos e consequências da tecnologia em cada setor específico (eleitoral, comercial etc.); 2) procedimentalmente, um esquema de coordenação que permita associar diferentes atores (os diferentes Poderes do Estado, as plataformas digitais e o povo, particularmente representado pela sociedade civil, incluindo pesquisadores, associações e movimentos em torno dos direitos digitais).
Nessa linha, caminha bem a proposta de revisão do PL 2338/2023 apresentada pela Comissão Temporária sobre Inteligência Artificial. Ela prevê um Sistema Nacional de Regulação e Governança de Inteligência Artificial composto por uma autoridade executiva de coordenação, que funcionaria como um nó articulador (broker) de uma rede composta por agências reguladoras setoriais, agências reguladoras de IA, Cade, pela autorregulação das plataformas e por entidades de certificação. É um ensaio que recupera a proposta de “autorregulação regulada” prevista a certa altura no PL das Fake News (ainda de futuro incerto no Congresso), mas retirada de sua última versão discutida.
Esse arranjo institucional pode ser lido com um verdadeiro esquema de freios e contrapesos para o ambiente digital. Tem em vista dois problemas. O primeiro é contrapor os interesses parciais dos diferentes atores (Estado, plataformas e usuários) e prevenir o abuso de seus poderes por meio de uma contenção a partir de vetos que cada um pode impor ao outro no desenho da regulação a ser desenvolvida e aprofundada a partir desse regime legal.
O objetivo é buscar uma divisão de direitos, deveres, poderes e responsabilidades que responda a uma intersecção identificável com o “interesse público”. O segundo problema é lidar com a falibilidade dos diferentes atores e da sua produção regulatória. Para tanto, a coordenação deve facilitar a corrigibilidade, catalisando respostas jurídicas experimentais, testáveis com base em evidências e revisáveis. Uma autoridade coordenadora dessa rede de agentes pode atuar mediando as soluções e saídas para impasses na negociação entre os diferentes atores para a criação ou revisão das regras.
Não precisamos de um código digital com milhares de regras específicas, pensado para durar décadas; nem é suficiente uma lista de princípios, que apenas transferem poderes discricionários às autoridades que os devem aplicar, concretizando-lhes o sentido.
O principal é termos um esquema de coordenação que articule os conhecimentos, interesses e legitimidades (parciais, mas relevantes) dos diversos jogadores das arenas digitais, com suas especificidades setoriais (partidos, candidatos, eleitores e Justiça Eleitoral, por exemplo, no campo das aplicações eleitorais da IA).
Assim como a inovação econômica e tecnológica se expressa por meio de novos produtos e processos produtivos, a inovação jurídica não implica apenas novas regras, mas também, mais amplamente, criatividade nos regimes jurídicos e arranjos institucionais.