CONFIRA ESSAS EMPRESAS
SEGURO PARA MOTORISTA DE APP
COMECE HOJE MESMO
CLASSIFICADOS
ABRIR O CATÁLOGO DE MÁQUINAS
TUDO SOBRE SEGURO DE VIDAS
ALUGUEL TEMPORADA GUARAPARI PRAIA DO MORRO ES
O IMÓVEL É UMA COBERTURA NA PRAIA DO MORRO ES LINK A BAIXO VALOR DA DIÁRIA 500R$
NÚMERO DE DIÁRIAS MINIMO 3
QUERO SABER + / CONTATO DO IMÓVEL
QUERO SABER SOBRE O CAVALO COMO COMPRAR
O melhor da web
GANHE DINHEIRO NO AIRBNB
DRA LARISSA
CONFIRA O CANAL
CONFERIR PERFIL NO LinkedIn
CONFERIR
Em novembro de 2024, a presidência do Carf anunciou a implementação do uso de inteligência artificial (IA) para garantir mais celeridade e eficiência ao contencioso administrativo tributário federal.[1]
Na ocasião, divulgou-se que o sistema intitulado de IARA (Inteligência Artificial em Recursos Administrativos), projetado para auxiliar no julgamento dos recursos tributários em tramitação, reduzindo o tempo médio de tramitação processual, de seis para um ano.[2]
O artigo aqui proposto não tratará, especificamente, do sistema IARA, mas visa estimular os leitores a reflexões sobre o uso da inteligência artificial, inclusive por seus julgadores, e suas consequências jurídicas, no campo ético, social e da privacidade, a partir da experiência internacional europeia, vanguardista no assunto.
A União Europeia inaugurou os debates sobre a regulamentação da IA em 2020, culminando na publicação do ato legislativo, em agosto de 2024[3]. Já o Brasil, debate o Projeto de Lei 2338/2023, em tramitação lenta, no Legislativo nacional[4].
Para garantir um sistema legal que propicie segurança jurídica, respeito aos princípios fundamentais do contribuinte, à ética e à privacidade e, sobretudo, previsibilidade, sua regulamentação deveria viger antecipadamente aos casos concretos. Como forma de prevenir erros, é extremamente valioso assimilar os desacertos vivenciados pela União Europeia.
No caso dos conselheiros, julgadores do judiciário e operadores do direito, ferramentas de IA (como a IARA, especificamente para o CARF) podem e devem estar ao alcance do direito, possibilitando eficiência e justiça fiscal. Mas, a sugestão é que funcione como ferramenta de apoio, nunca em substituição ao julgador administrativo.
Estudos vêm demonstrando a complexidade da IA e suas consequências (positivas e negativas). Daí a importância em compreender o instituto para posterior análise do real valor, porventura agregado, ao contencioso administrativo tributário.
A área da IA é dividida em duas subespécies: (i) machine learning ou aprendizado de máquina, tida como sistemas explicáveis, conhecidos como caixa-branca; e (ii) deep learning, que é o aprendizado de máquina mais profundo, com maior complexidade de rede neural e opacidade. É comumente intitulado de modelo caixa-preta.[5]
Nem todo aprendizado de máquina conduzirá, necessariamente, à opacidade absoluta. Muitos sistemas de machine learning empregam a chamada aprendizagem supervisionada, através da qual os programadores “treinam” o algoritmo por meio de exemplos e regras predeterminadas. No caso da aprendizagem não supervisionada, na qual a quantidade de orientações preliminares deixadas pelo desenvolvedor é menor, o algoritmo tem uma operação mais autônoma e, portanto, menos intuitiva para seres humanos.[6]
No caso das áreas jurídicas que implicam uma valoração subjetiva e individualizada para o deslinde do caso, a depender do tipo usado de IA, o procedimento pode conter opacidade, conclusões enviesadas e ilegais, desconhecidas pelo próprio usuário.
A exemplo da verdade material prevalecente no processo administrativo tributário, nem sempre processos similares têm o mesmo julgamento. Uma prova diferenciada tem valoração decisiva, mudando todo o julgamento. Tenho dúvidas se, mesmo diante do uso da IA explicável, há coerência e justiça na aplicação “à toque de caixa” aos casos semelhantes.
Por isso é que, apenas os sistemas explicáveis (XAI – explainable artificial intelligence) é que poderiam, em tese, garantir o mínimo de transparência que a lei exige, com mais inteligibilidade.
Por essa única razão é que, a intervenção humana poderá interferir no algoritmo e ter pleno conhecimento da forma como a solução foi dada, em termos de ética, privacidade e direitos fundamentais.
Em artigo anterior, discorri sobre da conformidade do uso da XAI pela fiscalização. Na ocasião, sugeri que somente a tecnologia explicável permite aos contribuintes entender a fundamentação das decisões tomadas pelas fiscalizações, permitindo também ao fisco ter acesso a mais informações refinadas.[7]
A vanguarda da Europa em termos de uso da IA pelas autoridades tributárias repercutiu no surgimento de judicialização do tema. Em certa medida, isso traz pontos positivos para o Brasil, pois o estudo desses casos é forma de prevenção de futuros litígios brasileiros.
Desde 2017, a Polônia adota um sistema de IA intitulado de STIR, sistema de teleinformação usado para evitar fraude fiscal e perda de arrecadação de tributação indireta.[8]
A partir dele, o fisco coleta os dados dos contribuintes, que são trocados entre o setor financeiro nacional, a Administração da Receita Nacional e o Registro Central de Dados Fiscais. É feita uma análise de risco que gera resultados indicadores de contribuintes fraudadores[9]. O ponto controvertido é que a indicação de risco para cada contribuinte é calculada segundo algoritmos secretos[10] (ponto bastante sensível à luz de uma democracia).[11] Apesar da indicação de uso de um sistema não explicável e de algoritmos secretos, o governo polonês tem validado o sistema como condizente com a sua legislação.
Outro caso ocorreu na Holanda, com a deflagração de um escândalo público da autoridade política. Em fevereiro de 2020, o Tribunal de Haia decidiu o caso SyRI (nome do próprio sistema de IA – Systeem Risico Indicatie), cuja ferramenta era usada como um instrumento legal pelo governo holandês para detectar formas de fraude fiscais em subsídios e benefícios sociais voltados para creches infantis.
O escândalo consistiu no fato de que o governo fazia uso da IA, a partir de uma parametrização discriminatória, pautada em regras de que o cidadão não holandês tinha uma pontuação mais alta de risco, ao usufruir os benefícios sociais e subsídios ligados ao uso da creche infantil. Dessa forma, as autoridades fiscais holandesas acabaram por usar um sistema de avaliação de risco que infringia os direitos fundamentais de aproximadamente 35.000 beneficiários. O fato culminou com a renúncia do então primeiro-ministro da Holanda.[12]
No julgamento, a Corte de Haia entendeu que o uso da ferramenta não atendia à transparência e à certeza adequadas por violar o artigo 8.º da Convenção Europeia dos Direitos do Homem (CEDH), consistente no respeito à vida privada e familiar.[13]
Outro exemplo é o da Eslováquia. A Corte Constitucional do país julgou o caso intitulado eKasa – 492[14], referente ao uso de sistema de IA coercitivo, que teria incorrido em abuso aos direitos dos contribuintes e ao procedimento tributário, por falta de previsão legal garantidora de uma avaliação contra eventuais erros do sistema.
Pelo uso dessa IA, ao usar o sistema de caixa eletrônico (e-cash), os dados dos contribuintes eram coletados e categorizados por risco. Com isso, a Corte do país entendeu que o procedimento de coleta de dados não respeitava a interpretação constitucional da legislação vigente, que vedava o uso pela administração financeira de dados do sistema e-cash, para fins de avaliação analítica automatizada do risco dos empresários, sem prévia disposição legal.
O uso da IA também foi judicializado na Letônia, tendo o processo se encerrado em favor do contribuinte. O caso tratava de um site de anúncios de venda online, notificado pelo fisco para prestar informações sobre vendedores e compradores que ali contratavam a plataforma de intermediação. O fisco solicitava que as informações fossem prestadas mensalmente e sem limitação no tempo, em quantidade significativa de dados pessoais relativos a um número ilimitado de anúncios. Além disso, não identificava quais os contribuintes envolvidos na fiscalização. Dada a falta de especificidade e fundamentação quanto ao pedido feito pelo fisco ao contribuinte, o tribunal entendeu que houve violação ao princípio da proporcionalidade e da privacidade.[15]
Há outros casos que merecem leitura que, apesar de não tratarem diretamente da judicialização do uso da IA, sinalizam a necessidade de cautela na aplicação dessa tecnologia.[16]
De acordo com o atual presidente do STF, a IA não vai assumir o papel do juiz, mas vai modificá-lo. E, a ferramenta tem riscos que não são tão pequenos, daí a necessidade de regulação para proteger a igualdade, a liberdade e a democracia e combater a desinformação e os discursos de ódio.[17]
De todo o exposto, é possível afirmar que há bons indícios de que a IARA do CARF seja uma medida positiva ao Órgão, julgadores e sociedade, vindo ao encontro da necessidade de melhorias na função social do tribunal, no exercício do controle de legalidade do crédito tributário, com mais transparência e certeza jurídica. A palavra de ordem é cautela e explicabilidade.
Referências
ALVES, M. A. S.; ANDRADE, O. M. de. Da “caixa-preta” à “caixa de vidro”: o uso da explainable artificial intelligence (XAI) para reduzir a opacidade e enfrentar o enviesamento em modelos algorítmicos. Direito Público, [S. l.], v. 18, n. 100, 2022. DOI: 10.11117/rdp.v18i100.5973. Disponível em: https://www.portaldeperiodicos.idp.edu.br/direitopublico/article/view/5973. Acesso em: 18 jul. 2022. RDP, Brasília, Volume 18, n. 100, p. 359, out/dez. 2021.
BAL, Aleksandra. (2019). Ruled by algorithms: the use of `black box’ models in tax law. Tax Notes International, 95(12), 1159–1166, pag. 1161.
BRASIL. SENADO FEDERAL. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233 Acesso em: 26 dez.2024.
BRASIL. SERPRO. Disponível em: https://www.serpro.gov.br/menu/noticias/noticias-2024/carf-ia-serpro Acesso em: 20 nov.2024.
BRASIL. SUPREMO TRIBUNAL FEDERAL – STF. Tema 990: “Recurso extraordinário em que se discute, à luz dos arts. 5º, incs. X e XII, 145, § 1º, e 129, inc. VI, da Constituição da República, a possibilidade de compartilhamento com o Ministério Público, para fins penais, dos dados bancários e fiscais do contribuinte, obtidos pela Receita Federal no legítimo exercício de seu dever de fiscalizar, sem autorização prévia do Poder Judiciário.” Disponível em: https://portal.stf.jus.br/jurisprudenciaRepercussao/tema.asp?num=990 Acesso em: 20 dez.2024.
BRASIL. SUPREMO TRIBUTBAL FEDERAL – STF. Presidente do STF fala sobre inovações e desafios da inteligência artificial no Judiciário. Disponível em: https://noticias.stf.jus.br/postsnoticias/presidente-do-stf-fala-sobre-inovacoes-e-desafios-da-inteligencia-artificial-no-judiciario/ Acesso em: 15 dez.2024.
BULARA, Vanessa. Novas Tecnologias e a Tributação: O Uso da Inteligência Artificial Explicável (Explainable Artificial Intelligence – XAI) como Ferramenta de Fiscalização da Renda Gerada pelo Estabelecimento Permanente na Economia Digital. Revista de Direito Tributário Internacional Atual, [S. l.], n. 12, p. 229, 2024. DOI: 10.46801/2595-7155.12.7.2023.2368. Disponível em: https://revista.ibdt.org.br/index.php/RDTIAtual/article/view/2368. Acesso em: 26 dez. 2024.
CORTE DE JUSTIÇA DA UNIÃO EUROPEIA. CJEU, Case C-175/20 s, ECLI:EU:C:2022:124. Disponível em: https://curia.europa.eu/juris/document/document.jsf;jsessionid=67CF627D484124952BD110D897341150?text=&docid=254583&pageIndex=0&doclang=PT&mode=lst&dir=&occ=first&part=1&cid=647975 Acesso em: 15 dez.2024.
ESLOVÁQUIA. Disponível em: https://www.slov-lex.sk/ezbierky/pravne-predpisy/SK/ZZ/2021/492/20211217 Acesos em:09 ago. 2022.
ITÁLIA. VeRa algorithm. Disponível em: https://privacy-network.it/sistemi-automatizzati/vera/ Acesso em: 01 dez.2024.
POLÔNIA. Disponível em: https://www.vatcalc.com/poland/poland-ai-and-e-invoicing-fights-vat-fraud/ Acesso em: 25 nov.2024.
THE HAGUE DISTRICT COURT. NJCM et al. v The Dutch State (2020) ECLI: NL: RBDHA:2020:1878 (SyRI). Disponível em: https://uitspraken.rechtspraak.nl/inziendocument?id=ECLI:NL:RBDHA:2020:1878 Acesso em 09 ago. 2022.
THE NEW YORK TIMES. Disponível em: https://www.nytimes.com/2021/01/15/world/europe/dutch-government-resignation-rutte-netherlands.html Acesso em: 25 nov.2024.
UNIÃO EUROPEIA. Regulamento (UE) 2024/1689. Disponível em: https://www.consilium.europa.eu/pt/policies/artificial-intelligence/#what Acesso em: 20 nov.2024.
VENEZUELA. Centro Latino-Americano de Administração para o Desenvolvimento (CLAD). Disponível em: https://clad.org/acerca-de/clad/ Acesso em: 20 nov. 2024.
_____________________________________________________________
[1] Divulgação feita no painel intitulado “Inteligência Artificial: da Teoria ao Concreto no Poder Público”.
[2] A IARA pretende auxiliar no julgamento de cerca de 75 mil recursos tributários em tramitação, que totalizam um valor estimado de R$ 950 bilhões, reduzindo o tempo médio de tramitação processual, de seis anos para um ano. Disponível em: https://www.serpro.gov.br/menu/noticias/noticias-2024/carf-ia-serpro Acesso em: 20 nov.2024.
[3] Trata-se da primeira regulamentação de IA no mundo. Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho, de 13 de junho de 2024, publicado em 12/07/2024, com vigência a partir de 01/08/2024. Trata-se do primeiro ato legislativo do mundo que regula a IA e poderão estabelecer uma referência mundial na regulamentação da IA, tal como aconteceu com o Regulamento Geral sobre a Proteção de Dados (RGPD) para a privacidade dos dados, promovendo uma inteligência artificial ética, segura e de confiança em todo o mundo. Disponível em: https://www.consilium.europa.eu/pt/policies/artificial-intelligence/#what Acesso em: 20 nov.2024.
[4] Projeto de relatoria do Senador Rodrigo Pacheco, aprovado no Senado Federal em 10/12/2024 e encaminhado à Câmara dos Deputados. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233 Acesso em: 26 dez.2024.
[5] A IA não é uma tecnologia em si, mas sim uma área do conhecimento, formada por diferentes vertentes, incluindo a machine learning, que não deve ser vista como sinônimo de “caixa preta”. Nem toda técnica baseada em aprendizado de máquina padece de opacidade algorítmica. As técnicas de machine learning supervisionadas, por exemplo, são facilmente explicáveis.
[6] ALVES, M. A. S.; ANDRADE, O. M. de. Da “caixa-preta” à “caixa de vidro”: o uso da explainable artificial intelligence (XAI) para reduzir a opacidade e enfrentar o enviesamento em modelos algorítmicos. Direito Público, [S. l.], v. 18, n. 100, 2022. DOI: 10.11117/rdp.v18i100.5973. Disponível em: https://www.portaldeperiodicos.idp.edu.br/direitopublico/article/view/5973. Acesso em: 18 jul. 2022. RDP, Brasília, Volume 18, n. 100, p. 359, out/dez. 2021.
[7] BULARA, Vanessa. Novas Tecnologias e a Tributação: O Uso da Inteligência Artificial Explicável (Explainable Artificial Intelligence – XAI) como Ferramenta de Fiscalização da Renda Gerada pelo Estabelecimento Permanente na Economia Digital. Revista de Direito Tributário Internacional Atual, [S. l.], n. 12, p. 229, 2024. DOI: 10.46801/2595-7155.12.7.2023.2368. Disponível em: https://revista.ibdt.org.br/index.php/RDTIAtual/article/view/2368. Acesso em: 26 dez. 2024.
[8] System Teleinformatyczny Izby Rozliczeniowej (STIR). Disponível em: https://www.vatcalc.com/poland/poland-ai-and-e-invoicing-fights-vat-fraud/ Acesso em: 25 nov.2024.
[9] BAL, Aleksandra. (2019). Ruled by algorithms: the use of `black box’ models in tax law. Tax Notes International, 95(12), 1159–1166, pag. 1161.
[10] Os contribuintes podem não saber como os indicadores de risco são determinados, cujos dados imputados podem ser dados pessoais como a residência do cliente, estruturas de propriedade e circunstâncias e transações incomuns.
[11] O Tema 990 do Supremo Tribunal Federal consolidou a seguinte tese: “Recurso extraordinário em que se discute, à luz dos arts. 5º, incs. X e XII, 145, § 1º, e 129, inc. VI, da Constituição da República, a possibilidade de compartilhamento com o Ministério Público, para fins penais, dos dados bancários e fiscais do contribuinte, obtidos pela Receita Federal no legítimo exercício de seu dever de fiscalizar, sem autorização prévia do Poder Judiciário.” Disponível em: https://portal.stf.jus.br/jurisprudenciaRepercussao/tema.asp?num=990 Acesso em: 20 dez.2024.
[12] https://www.nytimes.com/2021/01/15/world/europe/dutch-government-resignation-rutte-netherlands.html Acesso em: 25 nov.2024.
[13] NJCM et al. v The Dutch State (2020) The Hague District Court ECLI: NL: RBDHA:2020:1878 (SyRI). Disponível em: https://uitspraken.rechtspraak.nl/inziendocument?id=ECLI:NL:RBDHA:2020:1878 Acesso em 09 ago. 2022.
[14] Disponível em: https://www.slov-lex.sk/ezbierky/pravne-predpisy/SK/ZZ/2021/492/20211217 Acesos em:09 ago. 2022.
[15] Caso empresa ‘SS’ SIA versus Autoridade Tributária, CJEU, Case C-175/20 s, ECLI:EU:C:2022:124. Disponível em: https://curia.europa.eu/juris/document/document.jsf;jsessionid=67CF627D484124952BD110D897341150?text=&docid=254583&pageIndex=0&doclang=PT&mode=lst&dir=&occ=first&part=1&cid=647975 Acesso em: 15 dez.2024.
[16] Italy – VeRa algorithm Disponível em: https://privacy-network.it/sistemi-automatizzati/vera/ Acesso em: 01 dez.2024.
[17] SUPREMO TRIBUTBAL FEDERAL – STF. Presidente do STF fala sobre inovações e desafios da inteligência artificial no Judiciário. Ministro Luís Roberto Barroso falou na abertura de seminário promovido pela Ajufe. 23/10/2024 21:46 Disponível em: https://noticias.stf.jus.br/postsnoticias/presidente-do-stf-fala-sobre-inovacoes-e-desafios-da-inteligencia-artificial-no-judiciario/ Acesso em: 15 dez.2024.