CONFIRA ESSAS EMPRESAS
SEGURO PARA MOTORISTA DE APP
COMECE HOJE MESMO
CLASSIFICADOS
ABRIR O CATÁLOGO DE MÁQUINAS
TUDO SOBRE SEGURO DE VIDAS
ALUGUEL TEMPORADA GUARAPARI PRAIA DO MORRO ES
O IMÓVEL É UMA COBERTURA NA PRAIA DO MORRO ES LINK A BAIXO VALOR DA DIÁRIA 500R$
NÚMERO DE DIÁRIAS MINIMO 3
QUERO SABER + / CONTATO DO IMÓVEL
QUERO SABER SOBRE O CAVALO COMO COMPRAR
O melhor da web
GANHE DINHEIRO NO AIRBNB
DRA LARISSA
CONFIRA O CANAL
CONFERIR PERFIL NO LinkedIn
CONFERIR
Adotando a premissa da necessidade da regulação da inteligência artificial conforme o grau dos riscos de suas diversas e variadas utilizações, o PL 2338/2023 propôs classificação tripartite – riscos inaceitáveis, altos riscos e demais riscos – como base do modelo regulatório. É a partir dela que se pode identificar se e como determinado risco poderá ser assumido, delimitando o respectivo regime jurídico a que estará submetido.
Os riscos inaceitáveis estão vedados e, se a proibição for descumprida, o agente estará sujeito a sanções e também à responsabilidade objetiva pelos danos causados. Já os altos riscos podem ser assumidos mediante o cumprimento das exigências legais, sujeitando os agentes ao regime da responsabilidade objetiva pelos danos causados. Os demais riscos podem ser assumidos com menores exigências, sujeitando os agentes ao regime da responsabilidade subjetiva com presunção de culpa e inversão do ônus da prova.
Um dos primeiros desafios enfrentados pela Comissão de Juristas responsável pelo texto que serviu de base para o PL 2338 foi o de saber se, ao lado da classificação de riscos, deveria haver igualmente uma taxonomia. Tal solução, embora mais compatível com a segurança jurídica, poderia engessar o tratamento de matéria tão dinâmica. Por outro lado, a ausência de taxonomia poderia gerar grandes dificuldades para que regulador e regulados pudessem estabelecer com maior precisão o grau de risco de cada utilização de inteligência artificial.
Parte das dificuldades para o enfrentamento da questão decorre da própria complexidade de se definir o que é risco, sendo importante mencionar o critério de Frank Knight[1], que permite diferenciar os riscos das incertezas a partir de uma visão econômica, associando o primeiro a algo quantificável e mensurável – medido pela probabilidade da ocorrência de determinado evento e o seu impacto – enquanto as segundas não poderiam ser previstas nem calculadas, sendo insuscetíveis de quantificação[2].
Ocorre que, embora seja bastante útil, a perspectiva econômica do risco não é suficiente para defini-lo integralmente, até diante das inúmeras limitações dos métodos quantitativos e da sua incapacidade de lidar com as incertezas. Acresce que, para além da dimensão objetiva e pretensamente mensurável do risco, há também uma dimensão subjetiva que dificilmente pode ser capturada por métodos quantitativos.
Como explica Julia Black[3], por ser algo ligado ao indesejável e à ansiedade daí decorrente, o risco não pode ser considerado estável ou homogêneo. Além das variações pessoais, o risco indesejável não deixa de ser um julgamento normativo, a partir de uma relação presumida de causa e efeito entre um evento ou atitude e o seu resultado[4].
Logo, há aspectos culturais, valorativos, políticos e sociais envolvidos na definição do que é risco e especialmente na delimitação do que é o risco aceitável. Daí o risco ser definido por Julia Black[5] como algo emotivo, culturalmente construído e culturalmente contestado, sendo precisamente a sua natureza altamente politizada e contestável o fator que coloca os reguladores em uma situação tão difícil.
A dimensão política, cultural e social do risco mostra claramente que mesmo os métodos científicos têm limitações naturais para as classificações de riscos, diante dos componentes normativos e valorativos que precisam igualmente ser considerados. Logo, há bons fundamentos para se sustentar que é o legislador, no exercício de sua representatividade democrática, o mais apto a fazer o necessário juízo de valor para a definição dos riscos e de seus graus ou pelo menos propor uma primeira delimitação da matéria.
Daí por que o PL 2338 optou por apresentar uma taxonomia dos riscos excessivos e dos altos riscos a partir de visão bastante cuidadosa e atenta à consistência científica e às evidências disponíveis nacional e internacionalmente, mas sem descuidar do fato de que todos esses filtros precisam ser devidamente equilibrados com as percepções valorativas e normativas que são indispensáveis para tal análise.
Consequentemente, no art. 14 do PL 2338/2023, é apresentada a seguinte taxonomia dos riscos excessivos:
técnicas subliminares que tenham por objetivo ou por efeito induzir a pessoa natural a se comportar de forma prejudicial ou perigosa à sua saúde ou segurança ou contra os fundamentos da lei
aplicações que explorem quaisquer vulnerabilidades de grupos específicos de pessoas naturais, de modo a induzi-las a se comportar de forma prejudicial à sua saúde ou segurança ou contra os fundamentos da lei
avaliações, classificações ou ranqueamento de pessoas naturais pelo poder público, com base no seu comportamento social ou em atributos da sua personalidade, por meio de pontuação universal, para o acesso a bens e serviços e políticas públicas, de forma ilegítima ou desproporcional
Como se pode observar, o PL 2338 é bastante cuidadoso em relação aos riscos excessivos. Daí por que, diante dos impasses inerentes à identificação biométrica à distância de forma contínua em espaços acessíveis ao público, foi adotada solução intermediária em seu art. 15, não considerando tal risco aprioristicamente como excessivo, mas prevendo exigências adicionais – dentre as quais lei federal específica e autorização judicial – para a sua assunção.
No art. 17, o PL 2338 apresenta os altos riscos, dentre os quais estão incluídas as seguintes utilizações de inteligência artificial:
acesso a serviços públicos e privados essenciais, educação e formação profissional
relações de trabalho, especialmente para fins de recrutamento e avaliação
administração da justiça, incluindo sistemas que auxiliem na investigação dos fatos e na aplicação da lei
avaliação de crédito e capacidade de pagamento de pessoas naturais
veículos autônomos
aplicações na área de saúde, incluindo as destinadas a auxiliar diagnósticos e procedimentos médicos
sistemas biométricos de identificação
investigação criminal e segurança pública
estudos analíticos de crimes de pessoas naturais ou avaliações para a credibilidade de elementos de prova ou de previsão da ocorrência ou recorrência de infrações penais, com base em perfis
gestão da migração e controle de fronteiras.
Ao propor uma taxonomia de riscos excessivos e riscos altos, o PL 2338 não ignorou a crítica já dirigida a esse modelo de classificação de riscos, também adotado pelo AI Act europeu, sob o argumento de que poderia “pecar” tanto por excesso como por falta, especialmente nos casos do mau uso de tecnologias que foram pensadas para usos legítimos[6]. Não obstante, o PL 2338 partiu da premissa de que, em razão da necessária segurança jurídica que deve orientar os agentes de inteligência artificial, a descrição dos riscos seria a solução mais adequada.
Por outro lado, diante do receio do engessamento da atualização da taxonomia, o que seria preocupante diante de uma tecnologia que evolui tão rapidamente, a solução encontrada buscou assegurar um ponto de equilíbrio igualmente a partir do exemplo do AI Act europeu: ao mesmo tempo em que o texto legal oferece uma taxonomia inicial de riscos, já prevê os mecanismos para a sua atualização sem necessidade de reforma legislativa.
Essa foi uma das razões pelas quais o PL 2338 considerou indispensável a existência de uma autoridade responsável pela aplicação da lei, que teria, dentro de suas inúmeras atribuições, a de atualizar constantemente a taxonomia de riscos.
Até porque estava ciente da dimensão política relacionada à constituição da referida autoridade e as discussões daí decorrentes – se deveria, por exemplo, ser criada uma autoridade nova e transversal ou se alguma autoridade já existente poderia assumir tal função – a proposta da Comissão de Juristas que embasou o PL 2338 não avançou na natureza e nas especificidades da mencionada autoridade, embora seja inequívoco que a existência desta – e as importantes competências que lhe foram atribuídas – é uma importante “pedra de toque” do projeto.
Dessa maneira, entende-se que o PL 2338 conseguiu administrar de forma adequada importante tradeoff para a regulação da inteligência artificial: equilibrar segurança jurídica, de um lado, com flexibilidade e adaptabilidade, de outro. Mais do que isso, ao adotar a taxonomia de riscos, o projeto permite que o legislador – a partir da análise não somente das evidências disponíveis, mas também dos necessários juízos normativos – ofereça importantes referenciais e balizas que certamente serão fundamentais para que a autoridade responsável exerça sua tarefa de atualizar, de forma superveniente e constante, a taxonomia.
[1] KNIGHT, Frank. Risk, Uncertainty, and Profit. Signalman Publishing, 2009.
[2] Nos termos da precisa síntese de Julia Black (BLACK, Julia. The Role of Risk in Regulatory Processes. In: BALDWIN, Robert et al. The Oxford Handbook of Regulation. Oxford: Oxford University Press, 2010, pp. 303-349, p. 311): “In the standard technical assessments, ‘risk’ is derived from the probability of the adverse event occurring multiplied by the impact of that event or state of affairs. Uncertainties are susceptible to no such simple quantitative formula.”
[3] Op.cit., pp. 309-310.
[4] BLACK, Julia, idem.
[5] BLACk, Julia. Op.cit., p. 340.
[6] Ver, por todos, GIKAY, Asress et al. High-Risk Artificial Intelligence Systems under the European Union’s Artificial Intelligence Act: Systemic Flaws and Practical Challenges (November 2, 2023). Available at SSRN: https://ssrn.com/abstract=4621605 or http://dx.doi.org/10.2139/ssrn.4621605