IA no Judiciário: da curadoria de dados e pesquisas independentes à regulação

Spread the love

O uso de sistemas de inteligência artificial possui significativo potencial para transformar a prática do Direito, especialmente nas atividades repetitivas realizadas nos Tribunais de Justiça.

De acordo com o Conselho Nacional de Justiça (CNJ), 66% dos tribunais brasileiros já adotaram soluções baseadas em IA[1], abrangendo 59 das 90 cortes existentes. Esses dados foram apresentados durante o Simpósio Justiça Digital, evento que debateu os impactos da tecnologia na administração da justiça.

Assine a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas no seu email

O relatório “O uso da Inteligência Artificial Generativa no Poder Judiciário Brasileiro”[2] aponta que a aplicação de IA tem sido crucial para enfrentar desafios como a morosidade processual, o elevado volume de demandas judiciais e a necessidade de promover maior eficiência na análise e gestão dos casos.

Tribunais, como o Superior Tribunal de Justiça (STJ) e outros tribunais estaduais, têm utilizado a tecnologia para tarefas como triagem de processos, análise preditiva de decisões e automação de fluxos administrativos, promovendo maior celeridade e redução de custos.

Entre os benefícios mais citados da implementação de IA nos Tribunais de Justiça estão: i) aumento da eficiência e agilidade ao processar documentos (52,8%); ii) otimização de recursos (48,6%); iii) automatização de tarefas repetitivas (45%); e iv) e redução do tempo de tramitação dos processos (37,1%).

No entanto, embora as promessas de modernização sejam numerosas, é essencial que o uso dessa tecnologia seja acompanhado de salvaguardas e revisões constantes, para evitar a reprodução de desigualdades e discriminações.

O caso do sistema Compas nos Estados Unidos é um exemplo clássico e relevante dos riscos associados ao uso de tecnologia de IA no sistema judicial[3]. Esse sistema foi projetado para prever a probabilidade de réus rescindirem, atribuindo-lhes  uma pontuação com base em diversos fatores, e não para proferir decisões definitivas.

Contudo, investigações independentes revelaram que o Compas apresentava vieses raciais, penalizando desproporcionalmente réus negros com pontuações mais altas, mesmo quando seu histórico criminal era comparável ou menos grave do que o de réus brancos, que recebiam pontuações mais baixas. Esse caso evidenciou como os algoritmos, embora projetados para parecerem neutros, podem reproduzir e até amplificar desigualdades preexistentes no sistema judiciário, especialmente quando alimentados por dados históricos e sociais que já contêm esses vieses.

De acordo com a pesquisa “Uso de IA no Poder Judiciário de 2023”[4], conduzida pelo CNJ, a maior parte dos dados utilizados pelos sistemas adotados em tribunais é proveniente dos próprios tribunais ou de outros órgãos do Judiciário. Reconhece-se a importância de saber quais dados compõem as bases de treinamento dessas tecnologias.

Entretanto, a possível utilização de decisões anteriores como base para modelos de aprendizado de máquina ou generativos, destinados, por exemplo, a auxiliar na redação de minutas de sentença, levanta preocupações, já que se trata de uma ferramenta que pode reproduzir eventuais discriminações presentes em decisões passadas.

Nesse sentido, a nova minuta da Resolução 332 do CNJ[5] já é muito oportuna, não apenas por prever regras mínimas para o uso de IA pelo Judiciário, mas, principalmente, por prever, em seu capítulo 3-B, medidas de governança específicas para sistemas de IA de alto risco. Entre essas medidas, destacam-se a exigência de utilização de dados adequados e representativos e a adoção de estratégias para mitigar e prevenir vieses discriminatórios.

Contudo, apresenta-se igualmente essencial a previsão expressa de curadoria e avaliações rigorosas e periódicas das bases de dados utilizadas nos projetos de IA, a fim de identificar  e evitar a repetição de padrões decisórios potencialmente eivados de vieses, garantindo que tais  distorções não sejam perpetuadas em novas decisões judiciais.

Segundo Daniel Kahneman[6], esses vieses representam decisões influenciadas por distorções, o que põe em dúvida a suposta racionalidade plena pressuposta pelo legislador. Em síntese, os vieses cognitivos podem ser entendidos como “desvios sistemáticos em relação aos parâmetros esperados”[7] originados da mente automática.

Este tema tem sido amplamente estudado no campo jurídico e é fundamental destacar que os vieses cognitivos, como descobertas das ciências cognitivas, podem gerar implicações preocupantes para a tomada de decisão judicial, sobretudo por operarem de forma automática e implícita.

No caso dos algoritmos, eles são “idealizados por pessoas, e pessoas incorporam seus vieses inconscientes nos algoritmos. É raramente intencional – mas isso não significa que devemos ignorar a responsabilidade dos cientistas de dados. Significa que devemos ser críticos e vigilantes sobre as coisas que podem dar errado”[8].

Assim, é importante observar a influência desses vieses cognitivos na alimentação de sistemas de IA, ainda mais diante do senso comum falacioso de que essas tecnologias seriam neutras – o que é um equívoco, pois os vieses algorítmicos acabam refletindo, em geral, a predileção humana por determinados valores.

O termo “inteligência artificial” ou a adoção do nome de pessoas para sistemas algorítmicos podem querer indicar o contrário, através de um movimento de antropomorfização da máquina. No entanto, ela continua sendo, na maioria das vezes, uma ferramenta que tenta fazer previsões futuras olhando para o passado apenas como reprodutora, não como questionadora.

É nesse contexto que se torna necessário compreender que bases de dados representativas, adequadas e apropriadas não são somente aquelas que possuem centenas ou milhares de dados. A ideia de que quanto mais dados, melhor será a performance do sistema de IA, é uma falácia.

Um estudo da pesquisadora Abeba Birhane e outros pesquisadores[9] apontou que somente aumentar bases de dados em número não significa, necessariamente, um sistema melhor, podendo, na verdade, significar o contrário: a ampliação de conteúdo odioso e desumanizante sobre populações minoritárias. Assim, o que é preciso para evitar essa situação são mecanismos de avaliação, curadoria e auditoria mais rígidos.

Mesmo no uso de tecnologias de IA classificadas como de baixo risco, é preciso atenção. A adoção de sistemas para sumarização e análise de jurisprudência, como a identificação de padrões decisórios, não pode resultar no engessamento da justiça – ou pior, no engessamento de injustiças, de modo que a utilização desse tipo de ferramenta precisa ser acompanhada de uma atuação que se preocupe em promover também as atualizações necessárias ao Direito com o passar do tempo. Futuramente, é relevante a revisão da classificação desses sistemas, a fim de identificar se os seus efeitos não justificam a sua classificação, na verdade, como um sistema de alto risco.

Permitir o escrutínio público do funcionamento e bases de dados de IAs adotadas no Judiciário por instituições, pesquisadores e acadêmicos independentes, bem como promover parcerias com esse público pode contribuir sobremaneira para essa revisão e aprimoramento constante das ferramentas.

Isto não deve ser encarado como um freio à inovação da instituição, mas sim como motor e catalisador do avanço ético e responsável do uso da tecnologia, que ganha muito com pesquisas que ajudem a localizar e mitigar vieses e as chamadas “alucinações” – ou melhor, as evidentes falhas da máquina.

Por fim, importante pontuar que, apesar de louvável a iniciativa do Judiciário em estabelecer regras na ausência de uma lei nacional sobre o tema, é fundamental que o Brasil consiga avançar com a aprovação de uma regulação de sistemas de inteligência artificial.

O PL 2338/2023, que busca ser o marco regulatório para a tecnologia, tem sofrido frequentes reveses em seu andamento, sob forte pressão da indústria e big techs para alteração de alguns pontos do texto[10]. No entanto, a adoção de um lei que proteja direitos, classifique sistemas de acordo com níveis de riscos e preveja medidas de governança mais rígidas para IAs de alto risco, como este projeto se propõe, é urgente para assegurar uma inovação responsável e resguardar a população de possíveis impactos negativos.


[1] CNN BRASIL. 66% dos tribunais no Brasil usam inteligência artificial, aponta CNJ. CNN Brasil, São Paulo, 30 nov. 2023. Disponível em: < https://www.cnnbrasil.com.br/politica/66-dos-tribunais-no-brasil-usam-inteligencia-artificial-aponta cnj/#:~:text=66%25%20dos%20tribunais%20no%20Brasil,Artificial%2C%20aponta%20CNJ%20%7C%20CNN%20Brasil

[2] CONSELHO NACIONAL DE JUSTIÇA. O uso da inteligência artificial generativa no Poder Judiciário brasileiro: relatório de pesquisa / Conselho Nacional de Justiça. – Brasília: CNJ, 2024. Disponível em: https://www.cnj.jus.br/wp-content/uploads/2024/09/cnj-relatorio-de-pesquisa-iag-pj.pdf >. Acesso em:  30 nov. 2024.

[3] PROPUBLICA. Software que avalia réus americanos cria injustiças na vida real. Agência Pública, 3 jun. 2016. Disponível em: https://apublica.org/2016/06/software-que-avalia-reus-americanos-cria-injusticas-na-vida-real/.

[4] Pesquisa Uso de Inteligência Artificial (IA) no Poder Judiciário – 2023. Disponível em: https://www.cnj.jus.br/wp-content/uploads/2024/06/pesquisa-uso-da-inteligencia-artificial-ia-no-poder-judiciario-2023.pdf.

[5] Disponível em: https://www.cnj.jus.br/wp-content/uploads/2024/09/minuta-proposta-resolucao-332-cnj-rev.pdf

[6] KAHNEMAN, Daniel. Rápido e devagar: duas formas de pensar. Rio de Janeiro: Objetiva, 2012.

[7] CARDOSO, Renato César; HORTA, Ricardo de Lins e. Julgamento e tomada de decisões no direito. In: MALLOY-DINIZ, Leandro Fernandes; KLUWE-SCHIAVON, Bruno; GRASSI-OLIVEIRA, Rodrigo (org.). Julgamento e tomada de decisão. São Paulo: Pearson Clinical Brasil, 2018. p. 143-168.

[8] BROUSSARD, M. Artificial unintelligence: How computers misunderstand the world. Cambridge: MIT Press, 2018.

[9] BIRHANE, Abeba et al. On hate scaling laws for data-swamps. arXiv preprint arXiv:2306.13141, 2023.

BIRHANE, Abeba et al. The Dark Side of Dataset Scaling: Evaluating Racial Classification in Multimodal Models. In: ACM Conference on Fairness, Accountability, and Transparency (ACM FAccT), 2024b, Rio de Janeiro. Anais[…] Rio de Janeiro: Association for Computing Machinery, 2024. Disponível em: https://facctconference.org/static/papers24/facct24-83.pdf. Acesso em: 28 jul. 2024.

[10] SOARES, Matheus. Regulação de IA volta ao Senado com forte pressão da indústria. 4 set. 2024. Disponível em: https://desinformante.com.br/regulacao-ia-pressao-industria/

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *