CONFIRA ESSAS EMPRESAS
SEGURO PARA MOTORISTA DE APP
COMECE HOJE MESMO
CLASSIFICADOS
ABRIR O CATÁLOGO DE MÁQUINAS
TUDO SOBRE SEGURO DE VIDAS
ALUGUEL TEMPORADA GUARAPARI PRAIA DO MORRO ES
O IMÓVEL É UMA COBERTURA NA PRAIA DO MORRO ES LINK A BAIXO VALOR DA DIÁRIA 500R$
NÚMERO DE DIÁRIAS MINIMO 3
QUERO SABER + / CONTATO DO IMÓVEL
QUERO SABER SOBRE O CAVALO COMO COMPRAR
O melhor da web
GANHE DINHEIRO NO AIRBNB
DRA LARISSA
CONFIRA O CANAL
CONFERIR PERFIL NO LinkedIn
CONFERIR
A utilização da inteligência artificial no sistema judiciário tem sido amplamente discutida como uma solução para problemas estruturais, como a lentidão processual e a falta de uniformidade nas decisões.
Entretanto, essa inovação também traz à tona desafios significativos que envolvem questões éticas, operacionais e democráticas, especialmente sobre o papel dos advogados nesse cenário.
Assine a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas no seu email
No Brasil, a automação de processos judiciais já se tornou realidade em vários tribunais, com sistemas como o Sinapses e o Victor sendo projetados para agilizar atividades judiciais específicas, como a classificação de casos e a busca por jurisprudência, ajudando a gerenciar o enorme volume de casos, que já superam a marca de 85 milhões de ações pendentes no judiciário brasileiro em 2023.
Em tese, ao automatizar as tarefas rotineiras, esses sistemas de IA permitem que os juízes humanos se concentrem em aspectos mais complexos da tomada de decisões legais, melhorando assim a eficiência geral do judiciário.
Contudo, há um movimento crescente em direção à expansão do uso da IA no Judiciário, com o potencial de transformar o ato de julgar em si. Plataformas como o ChatGPT estão sendo exploradas para redigir sentenças e avaliar processos, levantando questões importantes sobre o equilíbrio entre eficiência, preservação de elementos humanos na tomada de decisões judiciais e adequação dessa ferramenta à LGPD.
Ao transferir arquivos de um determinado processo para plataformas que usam modelos de linguagem abertos (LLMs) hospedados em servidores alheios ao tribunal (ou até estrangeiros, como no caso do ChatGPT), há, de pronto, uma violação ao dever de guarda das informações pessoais pelo tribunal.
Em seus termos de uso, a OpenAI deixa claro que ao submeter conteúdos ao ChatGPT, os usuário autorizam a desenvolvedora a “usá-los para fornecer, manter, desenvolver e melhorar nossos serviços, cumprir a lei aplicável, fazer cumprir nossos termos e políticas e manter nossos Serviços seguros”. Trocando em miúdos: podem fazer o que bem entenderem.
Mesmo com esses riscos, o plenário do Conselho Nacional de Justiça (CNJ) rejeitou, em junho de 2024, um pedido de providências que requeria a proibição do uso da ferramenta para fundamentar decisões de magistrados no Brasil. O acórdão foi relatado pelo conselheiro João Paulo Schoucair.
Em que pese o relator tenha destacado que o uso de inteligência artificial no Judiciário deve ser pautado por princípios éticos, equidade, e responsabilidade, ressaltando a necessidade de supervisão humana para mitigar riscos, ele não vedou a utilização da plataforma porque não havia “evidências de que a ferramenta estivesse sendo utilizada por magistrados em decisões judiciais”.
Ironicamente, a pesquisa “O uso da Inteligência Artificial Generativa no Poder Judiciário”, realizada pelo próprio CNJ, e apresentada em setembro deste ano, a partir das respostas de 1.681 magistrados e 16.844 servidores, revelou que o ChatGPT é a ferramenta mais utilizada pelos respondentes que confessaram usar soluções de IA: 96% entre magistrados e 94% entre servidores.
O relatório aponta ainda que 27% dos magistrados e 31% dos servidores fazem uso da plataforma para atividades do tribunal. Apesar disso, pouco mais de 62% afirmaram incentivar a adoção de IA nos gabinetes.
Outras soluções de LLM desenhadas pelos próprios tribunais têm emergido como alternativa ao ChatGPT. O sistema Berna, desenvolvido pelo Tribunal de Justiça de Goiás (TJGO) e adotado por outros seis tribunais estaduais (Pará, Ceará, Sergipe, Maranhão, Amazonas e Roraima) é um exemplo de ferramenta projetada para “automatizar e otimizar etapas iniciais e finais da tramitação processual”.
Segundo o TJGO, a partir da leitura de petições iniciais no sistema Projudi/PJD, a Berna identifica automaticamente causas de pedir e teses jurídicas, organizando processos com demandas similares em grupos. Esse agrupamento teria, segundo o próprio tribunal, “um coeficiente de segurança de 90%”, e permitiria a unificação de grandes volumes de informações jurídicas, simplificando o trabalho de magistrados e servidores.
“O processamento de uma petição inicial, que anteriormente podia levar até cinco dias, agora é concluído em minutos ou poucas horas, mesmo em feriados ou finais de semana”, promete o TJGO.
A atuação da Berna inclui, ainda, a movimentação automática dos processos para o magistrado, com a juntada de documentos e informações pertinentes, permitindo que o juízo tenha acesso imediato a um panorama consolidado dos casos para despacho ou decisão.
A ferramenta tem sido utilizada também em fases finais, como na extinção em massa de processos de execução fiscal, ao “identificar petições padronizadas e arquivá-las com uma única assinatura judicial”.
É interessante notar que a narrativa mais presente no debate sobre o uso de soluções de IA gira em torno da eficiência e otimização do tempo do judiciário. Tudo parece muito bom, muito célere, muito resolutivo. Entretanto, o que gera mais preocupações não é o dito, mas o não dito.
A automação nas decisões judiciais impõe o risco de reduzir elementos humanos complexos, como valores éticos, culturais e sociais, a meros padrões de dados, o que pode se converter em decisões insensíveis aos aspectos exclusivos de cada caso, potencialmente diminuindo o escopo da atividade de um advogado em defender essas nuances.
A narrativa da solução que otimiza tempo desconsidera a dependência de algoritmos pode perpetuar os preconceitos existentes nos dados legais. Se uma plataforma considera a frequência de respostas e decisões como um parâmetro de agrupamento, há grandes riscos de resultados injustos e cristalizados. Seria muito mais desafiador alterar precedentes, especialmente sob o argumento falacioso da estatística.
Como se não bastasse os riscos acima, a opacidade de algoritmos complexos, geralmente chamados de “caixas-pretas”, dificulta entender a forma como as decisões são tomadas, dificultando que os advogados contestem ou entendam essas decisões.
Essa falta de transparência pode minar a capacidade do profissional de representar efetivamente seus clientes, violando todos os dispositivos constitucionais previstos entre os incisos XXXII a XXXVIII do Art. 5º da CF/88.
Não se pode ocultar do debate a preocupação do uso da IA nos processos como uma forma de terceirização de atividades judiciais, reduzindo o raciocínio jurídico detalhado. Ao contrário do que se imagina, a IA não pensa, não raciocina. As máquinas, pelo menos até agora, são incapazes de reformular questões jurídicas ou compreender a causalidade e os contrafactuais. Elas geram respostas a partir da probabilidade de conteúdos. Nessa lógica, pouco importa o que é justo no caso concreto, mas aquilo que é mais frequente na base de textos.
Nesse sentido, inclusive, vale mencionar o debate realizado pelas professoras Ana Frazão e Caitlin Mulholland no episódio 40 do podcast Direito Digital, especialmente na defesa de que a celeridade da automação não pode ocorrer às custas da iniquidade. “As máquinas não fazem o framing, que é o enquadramento. Às vezes é você olhar para o mesmo fato e, ao mudar o enquadramento, você muda toda a consequência jurídica dele”, lembrou Frazão no episódio.
Nesse cenário, qual será o papel do advogado? Precisaremos desenvolver habilidades hackers para vencer as barreiras algorítmicas da IA? Deveremos fazer formações para desenvolver habilidades semelhantes as de SEO (Search Engine Optimization) do Google, que são estratégias de otimização para mecanismos de busca e hierarquização no resultado de pesquisa? A narrativa da “otimização do tempo dos juízes e tribunais” vale o custo da justiça?
São várias perguntas que suscito não porque me oponha à inovação tecnológica ou os benefícios da IA no Judiciário. Pessoalmente, sou entusiasta, pesquisador e utilizador dessas ferramentas. Mas as provocações surgem para suscitar novas perspectivas de análise desse cenário. A inovação pela inovação não deve ser celebrada. É preciso fazer uma análise complexa dos impactos da implementação de uma ferramenta poderosa como essa em todo sistema jurídico.
Os advogados podem não precisar se tornar hackers, mas precisaremos desenvolver uma compreensão básica da IA e de suas aplicações no campo jurídico para navegar e desafiar sistemas automatizados com eficácia, especialmente para entender como os algoritmos funcionam, suas limitações e possíveis vieses.
Esse desafio se estende à OAB, que precisará vigiar e defender padrões éticos no uso da IA, garantindo que esses sistemas não prejudiquem os princípios fundamentais, como o devido processo legal e o acesso à justiça.