CONFIRA ESSAS EMPRESAS
SEGURO PARA MOTORISTA DE APP
COMECE HOJE MESMO
CLASSIFICADOS
ABRIR O CATÁLOGO DE MÁQUINAS
TUDO SOBRE SEGURO DE VIDAS
ALUGUEL TEMPORADA GUARAPARI PRAIA DO MORRO ES
O IMÓVEL É UMA COBERTURA NA PRAIA DO MORRO ES LINK A BAIXO VALOR DA DIÁRIA 500R$
NÚMERO DE DIÁRIAS MINIMO 3
QUERO SABER + / CONTATO DO IMÓVEL
QUERO SABER SOBRE O CAVALO COMO COMPRAR
O melhor da web
GANHE DINHEIRO NO AIRBNB
DRA LARISSA
CONFIRA O CANAL
CONFERIR PERFIL NO LinkedIn
CONFERIR
Em coluna anterior, tratei da opção adotada pelo PL 2338/2023 de apresentar, ao lado da classificação de riscos, igualmente uma taxonomia dos riscos excessivos e dos altos riscos. Naquela oportunidade, ressaltei a dificuldade para regular a matéria: uma taxonomia, embora mais compatível com a segurança jurídica, poderia engessar o tratamento de assunto tão dinâmico; já a ausência de taxonomia poderia gerar grandes dificuldades para que regulador e regulados pudessem estabelecer, com maior precisão, o grau de risco de cada utilização de inteligência artificial, gerando grande insegurança.
Recentemente, o relator apresentou um substitutivo, alterando consideravelmente o tratamento da matéria. No que toca aos riscos excessivos, estes passam a ser tratados pelo art. 13, que mantém as hipóteses que já constavam do art. 14 do PL 2338, acrescentando outras aplicações de inteligência artificial: (i) as que possibilitam a produção, disseminação ou facilitem a criação de material que caracterize ou represente abuso ou exploração sexual infantil, (ii) as que avaliam traços de personalidade, características ou comportamento passado, criminal ou não, de pessoas singulares ou grupos, para avaliação de rico de cometimento de crime, infrações ou reincidência e (iii) sistemas de armas autônomas que não permitam controle humano significativo, cujos efeitos sejam imprevisíveis ou indiscriminados ou cujo uso implique violações do Direito Internacional Humanitário.
Outra modificação importante é que, ao contrário do PL 2338, que sujeitava a possibilidade de identificação biométrica à distância de forma contínua em espaços acessíveis ao público à existência de lei federal específica e autorização judicial, o art. 14, do substitutivo, apresenta exceções nas quais será possível a utilização de tais sistemas.
Entretanto, a maior alteração ocorreu em relação aos altos riscos, que eram descritos no art. 17, do PL 2338, a partir de categorias genéricas, tais como acesso a serviços públicos e privados essenciais, educação e formação profissional; relações de trabalho, especialmente para fins de recrutamento e avaliação; administração da justiça, incluindo sistemas que auxiliem na investigação dos fatos e na aplicação da lei; avaliação de crédito e capacidade de pagamento de pessoas naturais, veículos autônomos; aplicações na área de saúde, incluindo as destinadas a auxiliar diagnósticos e procedimentos médicos; sistemas biométricos de identificação, investigação criminal e segurança pública; estudos analíticos de crimes de pessoas naturais ou avaliações para a credibilidade de elementos de prova ou de previsão da ocorrência ou recorrência de infrações penais, com base em perfis, e gestão da migração e controle de fronteiras.
Foi por ter se baseado nesse tipo de descrição que o PL 2338 foi sujeito às mesmas críticas lançadas contra o AI Act europeu, sob o argumento de que poderia “pecar” tanto por excesso como por falta[1]. Por mais que o PL 2338 admitisse a possibilidade de revisão constante da taxonomia, por meio da autoridade competente, esse era realmente um dos seus pontos mais delicados.
Talvez por essa razão o substitutivo tenha adotado postura diversa, optando por não descrever desde já as hipóteses de alto risco, mas tão somente prever que caberá ao SIA a regulamentação do tema com base nos critérios legalmente definidos.
Vale esclarecer que o SIA (Sistema Nacional de Regulação e Governança de Inteligência Artificial), de acordo com o substitutivo, é o “ecossistema regulatório coordenado pela autoridade competente que busca a cooperação e a harmonização com as demais agências e órgãos reguladores para a plena implementação e fiscalização do cumprimento desta lei em todo o território nacional com segurança jurídica” (art 4º, XI, do substitutivo).
Caberá, portanto, ao SIA, regulamentar os sistemas de inteligência artificial com base nos seguintes critérios, fixados pelo art. 15, do substitutivo:
a larga escala da implementação, levando-se em consideração o número de pessoas afetadas, a extensão geográfica, a duração e a frequência;
a possibilidade de impactos negativos ao exercício de direitos e liberdades ou à utilização de um serviço;
o alto potencial de danos materiais ou morais ou de cunho discriminatório;
a afetação de pessoas de grupos vulneráveis;
a possibilidade de danos irreversíveis ou de difícil reversão;
a circunstância de sistemas similares terem causado anteriormente danos materiais ou morais;
o baixo grau de transparência, explicabilidade e auditabilidade do sistema, de forma a dificultar seu controle e supervisão;
o alto nível de identificabilidade das pessoas ou grupos afetados;
as capacidades gerais e funcionalidades do sistema, em especial de modelos fundacionais, de propósito geral e generativo, com potencial sistêmico danoso, tais como à segurança cibernética, à higidez do processo eleitoral e violência contra grupos vulneráveis;
a extensão e a probabilidade dos benefícios do sistema;
a utilização de sistemas de identificação biométrica, excluídos os de autenticação biométrica;
o potencial de riscos significativos à saúde e à integridade física;
a possibilidade de impactos negativos à integridade da informação, processo democrático e pluralismo, como, por exemplo, através da disseminação de desinformação e discursos que promovam o ódio ou violência.
Como se pode observar, o substitutivo abriu mão de definir previamente os altos riscos e preferiu delegar tal função ao SIA. Ainda que o art. 63, do substitutivo, previsto na parte das “Disposições finais e transitórias”, determine que sejam levados em consideração, para efeitos da classificação de riscos, aqueles usos e aplicações que eram listados como de alto risco pelo PL 2338, o que era antes uma definição virou apenas um critério a ser considerado.
O substitutivo optou, portanto, por uma solução procedimental, ao contrário da anterior, que era material. Com isso, resolveu vários dos problemas que decorriam da taxonomia prevista pela redação do PL 2338/2023, criando um regime mais adaptável, flexível e aberto à participação popular e à accountability desde o início.
Com efeito, o parágrafo único do art. 63 do substitutivo é claro ao prever que a regulamentação da lista de alto risco será realizada pelo SIA e precedida de consulta pública. Esse tipo de solução se afina bem mais com a própria definição de risco pois, como já tratei na coluna anterior, a definição de risco não é apenas científica, mas apresenta também importante componente social, político e cultural.
Entretanto, ao lado das vantagens, o substitutivo também apresenta seus problemas. Isso porque a redação original do PL 2338, além de ser clara e objetiva, atendendo aos ditames da segurança jurídica, possibilitava a eficácia da lei desde o momento em que entrasse em vigor. Já a opção adotada pelo substitutivo depende, para a sua implementação prática, não apenas da existência do SIA, como da sua eficiência, agilidade e capacidade para realizar, em tempo hábil, a gradação de riscos e as atualizações supervenientes.
Acresce que, como se viu, o SIA não é propriamente uma autoridade, mas sim um ecossistema, o que gera muitas dúvidas sobre como poderá ser estruturado, uma vez que será integrado, para além da autoridade competente a ser designada pelo Poder Executivo, por órgãos e entidades estatais de regulação setorial, órgãos e entidades estatais reguladores de inteligência artificial, o Cade, as entidades de autorregulação e as entidades acreditadas de certificação (art. 40, § 1º, do substitutivo).
A autoridade competente por sua vez, é mero representante do Executivo, de forma que não goza de nenhuma garantia institucional a fim de preservar sua autonomia e independência. Ademais, em qualquer caso, o SIA apenas poderá funcionar adequadamente se houver diálogo interinstitucional e cooperação entre todas as autoridades envolvidas, o que a experiência prática brasileira mostra ser bastante difícil.
Logo, enquanto o SIA não estiver estruturado e editado suas classificações de riscos, simplesmente não haverá definição do que será ou não alto risco, o que traz efeitos complicados em todas as dimensões. Basta lembrar que o não funcionamento do SIA ou a ausência de definição dos altos riscos pode ter como consequência, dentre outras, paralisar ou dificultar sobremaneira as lides de responsabilidade civil, pois saber qual é o regime aplicável também depende da prévia classificação de riscos.
Fato é que a contraposição entre as duas propostas mostra que realmente não se está diante de um assunto fácil e as opções podem envolver, em muitos casos, tradeoffs ou escolhas difíceis. Porém, parece certo que o principal risco do substitutivo é que, mesmo após a promulgação da lei, tenhamos uma regulação que, em grande parte, não terá eficácia até a definição do que é alto risco pelo SIA.
Em um cenário mais pessimista, a depender do mal funcionamento do SIA, o risco inclusive é de se ter uma regulação que não regule.
[1] Ver, por todos, GIKAY, Asress et al. High-Risk Artificial Intelligence Systems under the European Union’s Artificial Intelligence Act: Systemic Flaws and Practical Challenges (November 2, 2023). Available at SSRN: https://ssrn.com/abstract=4621605 or http://dx.doi.org/10.2139/ssrn.4621605