No mundo atual, a percepção das dificuldades não pode mais se dissociar do remanejamento dos quadros funcionais.
Pensando mais a longo prazo, a percepção das dificuldades possibilita uma melhor visão global dos métodos utilizados na avaliação de resultados.

pensamento do dia

Assim mesmo, a complexidade dos estudos efetuados ainda não demonstrou convincentemente que vai participar na mudança dos métodos utilizados na avaliação de resultados.

Caminhos para a implementação da autoridade competente para IA no Brasil

Spread the love

No emergente debate acerca da regulação de sistemas de inteligência artificial (IA), uma questão destoa entre tantas: quem deveria regular uma tecnologia tão transversal e multissetorial? A partir desse questionamento, surgem outros ainda mais complexos.

Com o objetivo de fomentar a discussão do PL 2338/2023 e a criação do Sistema Nacional de Regulação e Governança da IA (SIA), o Laboratório de Políticas Públicas e Internet (LAPIN) lançou o relatório “REGULAÇÃO DA INTELIGÊNCIA ARTIFICIAL: Subsídios para a Autoridade Competente no Brasil”. A partir disso, apresentamos alguns dos principais achados da pesquisa.

A experiência da China

Na China, a regulação da IA segue uma abordagem híbrida, com especial protagonismo da Cyberspace Administration of China (CAC), subordinada ao Comitê Central do Partido Comunista Chinês. Além de regular a internet, a CAC tem papel central na supervisão de tecnologias emergentes, como a IA generativa.  

Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas

A CAC prioriza, dentre outros, a soberania cibernética e a cooperação internacional. Em 2023, publicou medidas provisórias para sistemas de IA generativa, exigindo, entre outras, prevenção à discriminação algorítmica, proteção da propriedade intelectual, avaliações periódicas de segurança e registros transparentes.

A CAC não tem poderes de sanção – essa responsabilidade é do próprio Partido Comunista Chinês. Mesmo nesse modelo centralizador de competências sancionatórias ao governo chinês, há uma complexa fragmentação na governança da IA, com múltiplas entidades desempenhando papéis muitas vezes sobrepostos. Essa estrutura compromete a  harmonização e supervisão coesa e independente das políticas e leis de IA no país.

A experiência da União Europeia

O modelo europeu, regido pelo AI Act, traz um arranjo de governança a nível nacional, com  autoridades competentes  nos Estados-Membros, e a nível da UE, com autoridades europeias encarregadas de coordenar e garantir a aplicação uniforme das regras em todo o bloco.

No arranjo de governança nacional, cada país deve designar ao menos uma uma autoridade notificadora, com atribuições de conformidade e certificações, e ao menos uma autoridade fiscalizadora de mercado, responsável pela harmonização das aplicações de IA com normativos europeus. Além disso, os Estados-Membros podem criar novas entidades ou atribuir essas funções a uma existente.

Assine gratuitamente a newsletter Últimas Notícias e receba as principais notícias jurídicas e políticas do dia no seu email

Além disso, sempre que instituições, organismos, escritórios ou agências da União Europeia estiverem sujeitas ao Regulamento Geral sobre a Proteção de Dados (RGPD), a Autoridade Europeia para a Proteção de Dados (European Data Protection Supervisor – EDPS)  atuará como a autoridade competente para sua supervisão.

Quanto à governança supranacional, a nível da UE, o AI Act estabeleceu quatro entidades elencadas abaixo, com algumas de suas principais funções: 

  1. AI Office: fiscalizar e supervisionar os requisitos de aplicações de IA sob o escopo do AI Act, com foco nos sistemas de propósito geral (GPAI);
  2. AI Board: aconselhar a Comissão Europeia (CE) e Estados-Membros por meio de orientações e pareceres, promover letramento em IA e cooperação entre Estados-Membros e órgãos europeus;
  3. Fórum Consultivo: fornecer conhecimento técnico e orientar a CE e o AI Board na aplicação do AI Act, com composição equilibrada entre entidades da indústria, empresas, academia e sociedade civil; e
  4. Painel Científico de Peritos Independentes: avaliar riscos e fornecer subsídios técnicos para aplicação do AI Act.

O grande desafio europeu está na coordenação entre essas entidades com potenciais conflitos de atuação.

A experiência dos Estados Unidos

Nos Estados Unidos (EUA), a regulação da IA reflete seu modelo histórico e descentralizado, com dois tipos de instituições: (i) órgãos vinculados ao Poder Executivo com prerrogativas principalmente orientativas e (ii) agências setoriais com poderes sancionatórios.

No âmbito dos órgãos executivos, destaca-se o National Artificial Intelligence Advisory Committee (NAIAC), um comitê multissetorial com membros do setor privado, sociedade civil, academia e líderes de órgãos governamentais, com atribuições de recomendações, estratégias, pesquisas e investimentos em IA. O NAIAC não possui atuação fiscalizatória, atuando exclusivamente como um órgão consultivo e orientativo

Além disso, há o Select Committee on Artificial Intelligence (SCAI), como principal órgão responsável pela supervisão e coordenação da Iniciativa Nacional de Inteligência Artificial nos EUA. O SCAI não possui poder regulatório ou sancionador, com somente o papel de formulação de recomendações e orientações. A regulação de IA no âmbito federal dos EUA, portanto, é limitada ao escopo de diretrizes e políticas formuladas por órgãos colegiados ligados ao Executivo.

O panorama dos EUA evidencia que o verdadeiro poder de fiscalização e sanção sobre temáticas relacionadas à IA se concentra no enforcement das agências executivas setoriais, como a Federal Trade Commission na proteção dos consumidores e a Securities and Exchange Commission no uso de produtos financeiros automatizados. Cada agência atua em sua competência técnica, mas a ausência de uma autoridade central harmonizadora resulta em fragmentação, lacunas regulatórias e desafios em questões transversais, como ética e transparência.

Essa descentralização também dificulta a criação de políticas abrangentes que considerem os riscos sistêmicos e globais da IA, sendo esse um dos principais desafios dos EUA.

A experiência do Brasil

Em abril de 2024, a Comissão Temporária Interna sobre IA do Senado Federal (CTIA) apresentou um texto preliminar do PL 2338/2023 com disposições específicas sobre a autoridade competente, designando–a como órgão ou entidade da Administração Pública Federal, dotada de autonomia técnica, decisória e financeira, para coordenar o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA).

Na versão do PL aprovada no Senado em 10 de dezembro de 2024, a Autoridade Nacional de Proteção de Dados (ANPD) é designada como a autoridade coordenadora do SIA, composto também por autoridades setoriais, o CRIA (Cooperação Regulatória de Inteligência Artificial) e o CECIA (Comitê de Especialistas e Cientistas de Inteligência Artificial).

O modelo combina autorregulação, corregulação e regulação tradicional, mas é criticado pela abordagem genérica sobre a participação da sociedade civil, sem mecanismos claros de representatividade. Na atual proposta, a ANPD atuará de forma residual apenas nos casos em que não houver uma autoridade setorial definida para a atividade econômica (art. 47). Isso significa que a ANPD funcionará como uma instância “reserva” ou “suplementar”, intervindo apenas na ausência de entidade específica. Esse cenário revela o desafio de evitar conflitos regulatórios ao delimitar fronteiras de atuação.

Para que o SIA seja eficaz, é crucial fortalecer a ANPD nos requisitos técnicos, organizacionais e financeiros. A sinergia entre os membros do SIA é essencial, especialmente em casos de IA de alto risco, para aproveitar estratégias de mitigação de forma transversal nos setores. Além disso, o modelo deve garantir participação ativa da sociedade civil, com canais de diálogo permanentes, representatividade e transparência. Para liderar na governança ética da IA, o Brasil precisa de um arranjo dinâmico, monitoramento constante e análise crítica, avançando com base em transparência, responsabilidade, cooperação e ética.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *