UE é pioneira na regulamentação de sistemas de inteligência artificial

Spread the love

Em agosto deste ano, entrou em vigor o Regulamento Europeu 2024/1689, conhecido como AI Act, um marco regulatório abrangente que disciplina o desenvolvimento, a implementação e o uso de sistemas de inteligência artificial na União Europeia.

O objetivo é garantir que o avanço dessa tecnologia ocorra de maneira segura e confiável e sua aplicação terá uma fase de transição de 6 a 36 meses a depender das circunstâncias. O termo “Sistema de IA” refere-se a um sistema baseado em máquina projetado para operar com níveis variados de autonomia a partir dos inputs que recebe, sendo capaz de inferir como gerar resultados tais como previsões, conteúdo, recomendações ou decisões.

Assine a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas no seu email

O AI Act busca equilibrar inovação tecnológica com a proteção dos direitos fundamentais, a segurança de cidadãos e empresas e a democracia. Para tal, adota uma abordagem baseada em risco, levando em consideração direitos fundamentais como não discriminação, segurança, privacidade e proteção de dados pessoais.

Esta é primeira grande iniciativa no mundo voltada à regulamentação da IA, o que tem atraído a atenção de reguladores em todo o mundo, incluindo no Brasil.

Âmbito de aplicação

O AI Act tem amplo escopo de aplicação, impactando primordialmente fornecedores/desenvolvedores dentro ou fora da UE que colocam sistemas de IA no mercado ou em serviço (para uso próprio por uma entidade pública ou privada) na UE.

Responsáveis pela implementação  ou aplicadores — que usam um sistema de IA desenvolvido por terceiro para fins internos sem desenvolvê-lo ou comercializá-lo como seu próprio produto (e.g., para dar suporte ao atendimento ao cliente ou para otimizar os processos de negócios) — também estão sujeitos a determinadas obrigações quando localizados na UE ou quando o sistema de IA é utilizado na União.

Embora tenham a responsabilidade de garantir que o uso do sistema atenda a critérios estipulados em lei, suas obrigações são menos abrangentes do que as dos desenvolvedores.

Categorias de risco

O AI Act estabelece quatro categorias de risco: proibido, elevado, limitado, mínimo,

Proibidos: Refere-se aos sistemas que representem um nível inaceitável de risco para a segurança, vida e direitos fundamentais, em particular sistemas que implementem técnicas manipulativas, explorem vulnerabilidades humanas (e.g., idade, deficiência ou situação econômico-social), ou que sejam usados para pontuação social (ou seja, classificar pessoas com base em seu comportamento social, status socioeconômico ou características pessoais) ou categorização biométrica (usar dados biométricos para inferir comportamentos).

Risco elevado: Refere-se aos sistemas que podem causar um impacto negativo para a segurança e direitos fundamentais, que incluem sistemas usados para gerenciamento e operação de infraestruturas críticas (por exemplo, transportes), educação e formação profissional, gestão de trabalhadores, administração da justiça,  acesso a serviços essenciais. Via de regra, sistemas de identificação biométrica à distância se enquadram nessa categoria quando não forem proibidos. Tais sistemas requerem uma avaliação rigorosa de conformidade antes da colocação no mercado. Os fornecedores devem cumprir uma série de requisitos, incluindo a implementação de um mecanismo de gestão de risco, conformidade com critérios de governança de dados, documentação pormenorizada sobre o sistema, fornecimento de instruções de uso, medidas de supervisão humana para atenuar riscos, bem como garantia de níveis apropriados de precisão, robustez e segurança.

Risco limitado: Refere-se a riscos associados à falta de transparência no uso de IA. Os desenvolvedores e implantadores devem garantir que os usuários finais sejam devidamente informados de que estão interagindo com IA, como no caso de chatbots, ou que estão acessando conteúdo produzido a partir de IA (imagens, vídeos ou áudios gerados ou editados por ferramentas de IA).

Risco mínimo: Englobam os sistemas que podem ser implementados sem grandes preocupações por não representarem ameaça a direitos fundamentais, à segurança ou bem-estar dos cidadãos. Exemplos incluem sistemas de filtragem de spam, serviços de tradução automática e vídeo games. A maioria dos sistemas de IA se enquadra nessa categoria.

Modelos de IA de finalidade geral

O Regulamento introduz disposições específicas para modelos generativos de IA, os quais demonstram generalidade significativa e são capazes de realizar uma ampla gama de tarefas distintas, podendo ser integrados em uma variedade de sistemas de IA ou aplicações.

Quando um modelo de IA (e.g., GPT-4 e DALL-E) de finalidade geral é integrado num sistema de IA ou dele é parte integrante, o sistema deverá ser categorizado como um sistema de IA de finalidade geral se, em razão desta integração, tiver a capacidade de servir uma variedade de finalidades. Um sistema de IA de finalidade geral pode ser utilizado diretamente (e.g., ChatGPT) ou ser integrado em outros sistemas de IA.

Fornecedores destes modelos fundacionais devem atender obrigações de transparência, incluindo elaborar documentação técnica sobre o modelo, disponibilizar informações e documentação aos prestadores de sistemas de IA que pretendam integrar o modelo de IA de finalidade geral nos seus sistemas de IA; e publicar um resumo sobre o conteúdo usado para treino do modelo de IA.

Modelos considerados de risco sistêmico (com base em critérios específicos referentes a capacidades de elevado impacto, particularmente modelos com capacidades computacionais elevadas) estão sujeitos a obrigações adicionais, como a avaliação do modelo com vistas a identificar e atenuar riscos sistêmicos, testes adversariais, rastreamento e reporte de incidentes graves e eventuais medidas corretivas, bem como garantia de proteção de cibersegurança adequada.

Implicações nos países europeus

A implementação do AI Act se dará de modo faseado, com prazos variando de 6 meses para sistemas de IA proibidos a 36 meses para sistemas de IA de alto risco. Cada país deverá estabelecer autoridades nacionais competentes para supervisionar a aplicação do regulamento, sendo encorajados a criar “sandboxes” regulatórias – ambientes isolados propícios para P&D – de forma a facilitar o desenvolvimento e teste de sistemas de IA inovadores num ambiente seguro antes de serem colocados no mercado.

Violações do regulamento são sancionadas através de um regime de penalidades que podem chegar a € 35 milhões para as infrações mais graves ou 7% do volume de negócios anual global, o que for mais elevado.

Regulação da IA no Brasil

O Brasil também vem discutindo um quadro regulatório para a IA, que reflete a importância do tema no cenário nacional. A primeira proposta legislativa foi o PL 21/2020, que propõe um marco legal para o desenvolvimento e uso da IA no Brasil ao desenhar uma proposta de fundamentos, princípios e diretrizes para o desenvolvimento e a aplicação da IA no Brasil.

Há ainda o PL 2338/2023, que – com clara inspiração no AI Act europeu – postula a categorização dos sistemas de IA pelo risco que representam aos bens jurídicos a proteger. As propostas aguardam apreciação no Senado.

Reflexões finais

Tanto a UE quanto o Brasil buscam estabelecer estruturas regulatórias que possam acompanhar as rápidas mudanças tecnológicas, promovendo a inovação responsável, protegendo direitos fundamentais e garantindo competitividade em um cenário global.

Nesse contexto, o AI Act tem sido alvo de críticas quanto à sua abrangência e complexidade. A fase de implementação será decisiva para revelar sua capacidade de proteger os cidadãos e seus direitos fundamentais sem sufocar a inovação, o empreendedorismo e o investimento no emergente mercado de IA.

No Brasil, o debate sobre a regulação da IA tem avançado, com uma crescente consciência da importância de encontrar o “ponto ideal” entre inovação e proteção de direitos. Assim, os desdobramentos da implementação do AI Act na Europa podem servir como importante referência para o regulador brasileiro.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *