Regulação da IA: inovação em risco no Brasil

Spread the love

Recentemente, o Senado reuniu cerca de dez projetos relativos à inteligência artificial em um consolidado: o PL 2338/2023. Embora ainda não haja previsão de sua votação, é evidente o apoio da Casa à sua aprovação. O projeto baseia-se na regulação por risco, classificando, assim, os sistemas de IA. A abordagem regulatória pauta-se na ideia de transparência e proteção aos direitos humanos, especialmente de pessoas vulneráveis, buscando, ao mesmo tempo, promover a inovação e o desenvolvimento tecnológico.

A regulação baseada em riscos, proposta por esse PL, exige que os desenvolvedores de IA realizem uma avaliação preliminar dos sistemas e mantenham todos os documentos relacionados por cinco anos. Essa abordagem é considerada essencial para garantir que os sistemas de IA operem dentro dos padrões de segurança e responsabilidade exigidos pela nova legislação. Os sistemas de risco excessivo serão proibidos; os de alto risco estarão sujeitos a regras rigorosas de governança e responsabilidade civil; enquanto os de baixo risco não suscitam maiores preocupações.

Em paralelo, nota-se que os princípios orientadores dessa regulação são transparência, explicabilidade, supervisão humana e responsabilização. O PL 2338 propõe ainda a criação do Sistema Nacional de Regulação e Governança da Inteligência Artificial, que provavelmente será gerido por uma entidade da administração pública federal. Essa medida visa garantir que todos os sistemas de IA operem de acordo com as diretrizes estabelecidas, promovendo a segurança e a responsabilidade no uso dessas tecnologias.

A lei já classifica diversos sistemas como de alto risco, como os de identificação biométrica, avaliação de capacidade de endividamento e classificação de crédito, além de sistemas de recomendação de conteúdo. A identificação desses sistemas é crucial para garantir que as tecnologias que têm maior potencial de impacto sobre a sociedade sejam rigorosamente monitoradas e reguladas.

Entre as aplicações, algumas me chamam especialmente a atenção. Um ponto relevante a se destacar é a menção, ainda que vaga, às startups, que devem ter um regime diferenciado para fomentar o seu desenvolvimento. Além disso, as normas de proteção ao trabalho também são imprecisas. Não poderia deixar de ressaltar, do ponto de vista do processo jurídico, que há, inclusive, regras específicas para a utilização de IA por juízes e advogados, sempre com ênfase na supervisão humana final. Essa preocupação reflete a necessidade de garantir que as decisões judiciais e legais não sejam inteiramente automatizadas, preservando a participação do homem e a responsabilidade ética.

No entanto, o Brasil parece estar adotando um modelo europeu de regulação de inteligência artificial que só entrará em vigor por lá em dois anos – e que foi criado em um contexto muito diferente do brasileiro. As nações europeias superaram várias injustiças sociais antes do nosso país, justificando uma regulação mais dura da IA. Importar esse modelo para o Brasil, onde muitos dos graves problemas sociais esperam soluções que podem vir da própria IA, pode nos excluir da corrida global pelo seu desenvolvimento, uma área fundamental para o futuro da economia mundial.

A criação de um ente regulatório nacional para IA pode ser problemática. A inteligência artificial estará presente em todos os aspectos de nossas vidas e a tentativa de regulamentá-la rigidamente pode limitar a liberdade do cidadão em atividades cotidianas, restringindo a vida civil de forma indesejável.

Um exemplo é a responsabilidade objetiva dos desenvolvedores, mesmo na ausência de falha ou dolo. Ou seja, essa regulação rigorosa pode desestimular investimentos em IA, prejudicando o desenvolvimento do setor. Se um sistema de inteligência artificial que reduz a criminalidade tem uma margem de erro de 1 em 1.000 identificações, é justificável proibir seu uso por causa de uma falha ocasional, ainda que seja muitas vezes mais eficiente que a intervenção humana?

Outro aspecto da lei é a proteção ao mercado de trabalho. Assim como os elevadores modernos tornaram obsoletos os ascensoristas, a IA afetará todas as profissões. É um progresso inevitável que torna difícil proteger alguns empregos. Mas isso não é necessariamente ruim. Novas funções surgem dessas transformações no mercado.

Apesar dos desafios, há aspectos positivos na lei, como a diferenciação entre startups e grandes empresas, visando evitar a concentração de mercado. Também é positivo que a lei garanta o direito das pessoas de saberem quando uma decisão é influenciada por inteligência artificial. No entanto, essas medidas, por mais positivas que sejam, ainda poderão ser insuficientes para compensar os impactos negativos da regulação excessiva.

Vejo essa ânsia regulatória como desastrada, exacerbada e tendente a gerar uma enxurrada de ações no Judiciário, desestimulando a inovação. Isso sem contar a forte possibilidade de colocar o Brasil numa prateleira bem inferior a outros países, principalmente em relação aos Estados Unidos e a países asiáticos.

A lei, se aprovada, também deve culminar na exportação de nossos talentos. Possivelmente, eles trabalharão em companhias estrangeiras, privando-nos do desenvolvimento de suas habilidades. Um movimento lamentável, claro, porque temos uma quantidade infinita de dados – talvez uma das maiores do mundo –, assim como profissionais extremamente competentes, que o serão longe daqui. Ou seja, damos um passo à frente por debater o tema, mas dois para trás ao trazer tantas amarras ao desenvolvimento e ao uso da inteligência artificial.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *