CONFIRA ESSAS EMPRESAS
SEGURO PARA MOTORISTA DE APP
COMECE HOJE MESMO
CLASSIFICADOS
ABRIR O CATÁLOGO DE MÁQUINAS
TUDO SOBRE SEGURO DE VIDAS
ALUGUEL TEMPORADA GUARAPARI PRAIA DO MORRO ES
O IMÓVEL É UMA COBERTURA NA PRAIA DO MORRO ES LINK A BAIXO VALOR DA DIÁRIA 500R$
NÚMERO DE DIÁRIAS MINIMO 3
QUERO SABER + / CONTATO DO IMÓVEL
QUERO SABER SOBRE O CAVALO COMO COMPRAR
O melhor da web
GANHE DINHEIRO NO AIRBNB
DRA LARISSA
CONFIRA O CANAL
CONFERIR PERFIL NO LinkedIn
CONFERIR
Em novembro de 2023, o governo britânico organizou o primeiro AI Safety Summit, que culminou com uma declaração assinada por 28 governos, dentre os quais o brasileiro, que se uniu a um grupo bastante heterogêneo, que inclui os pesos pesados da indústria da inteligência artificial (IA) e de sua regulação, como Estados Unidos, China e União Europeia.
Nada obstante, o conclave internacional recebeu críticas para não ter identificado nenhuma pista específica para a regulação da IA e nenhum mecanismo concreto de governança, apesar de ter sido um sucesso do ponto de vista diplomático e ter conseguido mapear alguns dos riscos mais relevantes.
À luz da recente experiência liderada pelos britânicos, parece justificado questionar se os modelos regulatórios debatidos nos últimos anos pelo legislador nacional correm o risco de adotar uma abordagem “inglesa” para a regulação de IA, ou seja, propor elementos principiológicos que, apesar de ser bem-intencionados, dificilmente poderão se concretizar em resultados significativos sem a previsão de sólidos mecanismos de fiscalização, enforcement e padronização técnica.
Vulnerabilidades sistêmicas
Nos últimos cinco anos, pelo menos 15 projetos de lei extremamente heterogêneos foram apresentados no Congresso para criar um marco regulatório da IA no Brasil, nomeadamente os PLs 3.592/2023; 2.338/2023; 5.691/2019; 5.051/2019; 21/2020; 872/2021; 266/2024; 145/2024; 210/2024; 146/2024; 262/2024; 390/2024; 303/2024; 349/2024; 370/2024. O autor e os leitores podem agradecer meu colega Filipe Medon pela lista, sendo uma das pouquíssimas pessoas no Brasil que tenha conseguido catalogá-los todos.
O único elemento comum entre tamanha variedade de PLs é que nenhum deles define qual mecanismo de fiscalização, enforcement e padronização técnica deveria ser adotado para garantir a devida implementação da futura lei e a consequente conformidade aos princípios e dispositivos normativos tão complexos para se regular.
Ao final, todo mundo concorda que sistemas de IA devem ser democráticos, não discriminatórios e seguros. Bem diferente é conseguir definir qual algoritmo não seja antidemocrático, qual medida de gestão de dados consegue concretamente evitar vieses, e quais métricas permitam identificar riscos e as medidas para mitigá-los.
Quem estuda regulação sabe muito bem que a aprovação de um novo marco regulatório pode parecer um enorme sucesso (e, frequentemente, representa um considerável avanço do ponto de vista meramente normativo), mas o objetivo regulatório proposto permanece totalmente inalcançado e inalcançável se tal marco regulatório não vier acompanhado de um mecanismo efetivo e eficiente de regulação.
Como já nos lembrava Roscoe Pound há mais que um século, existe ume enorme diferença entre a chamada “law in books” e a chamada “law in action”.
No caso da IA, como acontece na maioria dos domínios tecnológicos complexos, a dificuldade é ainda maior, porque as estratégias de regulação “clássicas” baseadas no modelo europeu continental apresentam dois tipos de limites ou vulnerabilidades que, ao ver deste que vos escreve, não foram devidamente considerados por nenhum PL em tramitação no Congresso.
Primeiramente, quase nenhum PL prevê explicitamente a criação de uma nova Autoridade Nacional de Inteligência Artificial, sendo o PL 2338/2023 o único que chega a definir as atribuições de uma “autoridade competente” sem, porém, identificar qual órgão ou entidade da Administração Pública Federal poderia ser tal autoridade. Tal incerteza é susceptível de prejudicar enormemente a implementação de futura Lei, enquanto a ausência de uma autoridade, como proposto pela maioria dos PLs, pode ser ainda mais prejudicial.
As alternativas em caso de ausência de uma autoridade setorial são duas. O uso – mais ou menos coordenado – de autoridades setoriais existentes, ou o uso do Judiciário para fiscalização de uma lei principiológica complementada pelo uso de autorregulação para especificar elementos técnicos e normativos, seja por meio de padronização técnica, seja por meio de códigos de conduta e selos. Todas estas opções apresentam vantagens e problemas, como destacado nos parágrafos seguintes.
O uso de autoridades existentes pode ser particularmente interessante devido à ampla gama de assuntos aos quais os sistemas de IA podem interessar. Literalmente, cada regulador existente no País seria interessado. Como destaquei em várias ocasiões, a criação de um sistema de coordenação infra-regulatória, como acontece no modelo do xitong da China poderia ser uma possibilidade interessante, se for organizado de maneira eficiente e transparente e accountable. Porém, apesar das autoridades reguladoras existentes terem claras competências nos seus próprios domínios de atuação, nenhuma delas tem competências em matéria de IA.
Delegar a regulação de assuntos tão críticos para reguladores que não têm recursos humanos, intelectuais e econômicos para regular parece uma aposta particularmente arriscada. A Ordem Executiva sobre o Desenvolvimento e Uso Seguro e Confiável da IA, recentemente adotada pela Casa Branca parece reconhecer o problema e identificar uma “solução” na criação de um AI Officer por cada autoridade reguladora interessada. Parece audacioso achar que essa estratégia, apesar de ser bem-intencionada, seja minimamente suficiente.
Delegar a implementação de um futuro marco regulatório ao Judiciário também parece uma aposta arriscada, considerando que os membros do Judiciário brasileiro – como de qualquer outro país – nunca foram formados para entender o funcionamento de sistemas de IA. Além disso, parece altamente previsível que a implementação da lei seria extremamente heterogênea e até conflitual, levando a uma situação de insegurança jurídica sobre um tema altamente estratégico par ao desenvolvimento do país.
Por fim, a especificação de um marco principiológico sobre IA por meio de padrões técnicos é necessário, devido a enorme especificidade do assunto. Porém atribuir ao setor privado a capacidade de especificar assuntos normativos, acreditando que supostas considerações de “ética de IA” sejam mais relevantes que a pressão do mercado a maximizar benefícios, parece altamente ingênuo. A necessidade de regulação publica de IA é reconhecida até pelas lideranças da indústria, que chegaram a pedir explicitamente regulação.
É suficiente aludir ao fracasso na autorregulação da moderação de conteúdo em redes sociais, à raspagem ilimitada em total desrespeito de proteção de dados pessoais e direitos autorais perpetrada em nome do treinamento da IA generativa, ou aos inúmeros exemplos de discriminação algorítmica em produtos comercializados como performantes, para entender que a autorregulação é totalmente ineficiente quando o mercado colocar um prêmio bilionário em quem desenvolver primeiro e os poderes públicos não colocarem nenhum limite para quem desenvolver e implementar IA.
Uma regulação “adequada” e “razoável”?
O uso de qualificativos como “adequado” ou “razoável” revela-se como uma técnica legislativa bastante comum para garantir a flexibilidade dos dispositivos normativos. Para não precisar ser excessivamente técnico e não correr o risco de rápida obsolescência legislativa, o legislador precisa incluir cláusulas de flexibilidade que podem até soar vagas.
Contudo, o uso de tais qualificativos, particularmente abundante em (propostas de) regulações de IA, e muito frequente em leis sobre proteção de dados pessoais, precisa ser acompanhado de um sistema de governança capaz de permitir a especificação e aplicação correta do disposto genérico ao caso concreto. Ao contrário tais elementos de flexibilidade se tornam enormes vulnerabilidades sistêmicas, sendo a compliance com elementos tão vagos puramente impossível.
Tal atividade de especificação é o papel típico de uma autoridade reguladora setorial, dotada de elevados recursos humanos, intelectuais e orçamentários, necessários para especificar e implementar a lei e conseguir examinar se sistemas altamente complexos sejam adequadamente seguros, transparentes, não discriminatórios etc. Esse é o caminho escolhido, por exemplo, pelo AI Act ao criar, não somente um AI Office, mas também um sistema decentralizado de autoridades nacionais de monitoramento e um sistema de padronização delegado a duas organizações de normalização para permitir que a IA seja desenvolvida em conformidade com uma lei extremamente complexa.
Este último ponto talvez seja, inclusive, um dos elementos mais importantes e, ao mesmo tempo mais negligenciado, do novo sistema definido pelo AI Act e já bastante difundido em outros sistemas como o chinês. O próprio AI Act, no seu considerando 61 exprime este ponto de maneira extremamente eloquente:
A normalização deve desempenhar um papel fundamental, disponibilizando aos fornecedores soluções técnicas que assegurem o cumprimento do presente regulamento. O cumprimento de normas harmonizadas, conforme definido no Regulamento (UE) 1025/2012 do Parlamento Europeu e do Conselho, deve constituir um meio de os fornecedores demonstrarem a conformidade com os requisitos do presente regulamento.”
O PL 2338, apesar de não ser isento de críticas, é, sem dúvidas, o mais estruturado e completo entre os PLs apresentados até hoje no país. Porém, apesar de o artigo 19 do referido PL impor que os sistemas de IA incluam “o uso de interfaces ser humano-máquina adequadas” e “medidas de gestão de dados adequadas” e adotem “parâmetros adequados de separação e organização dos dados” e “medidas adequadas de segurança da informação” não indica como tais elementos essenciais poderiam ser determinados “adequados.”
Uma das tarefas mais urgentes da Comissão Temporária Interna sobre Inteligência Artificial no Brasil do Senado Federal é remediar tais lacunas e definir um sistema que possa permitir não somente a adoção de um marco normativo moderno, ágil e capaz de maximizar direitos e reduzir riscos, mas também a implementação efetiva de tal marco.
Este último ponto é crucial para conseguir nortear o desenvolvimento tecnológico do país com um marco regulatório solido e implementável de maneira realmente efetiva. Sendo assim, o Brasil terá um modelo inovador para os ingleses e todos os convidados do próximo AI Safety Summit não somente verem, mas talvez até copiarem.