Pelo uso de uma IA responsável no processo administrativo fiscal

Por Diego Diniz Ribeiro, Silvia Piva

15/10/2025 12:00 am

Nos últimos dias 1 e 2 de setembro, o Carf (Conselho Administrativo de Recursos Fiscais) promoveu seu XI Seminário de Direito Tributário e Aduaneiro, evento esse que dessa vez teve o especial objetivo de celebrar os cem anos de existência do tribunal [1].

É natural que a comemoração de uma data tão expressiva seja um momento importante para reflexão acerca do passado do órgão, com a promoção de um balanço — de erros e acertos — a respeito da sua relevância na construção de uma justiça fiscal, bem como um momento importante para projetar o futuro do tribunal.

Pensando no porvir, destacamos as falas do secretário especial da Receita Federal, Robinson Sakiyama Barreirinhas, e do presidente do Carf, Carlos Higino Ribeiro de Alencar que, ao vislumbrarem o horizonte que se afigura, destacaram o emprego da inteligência artificial (IA) nos julgamentos a serem realizados no Carf, por meio do emprego da Inteligência Artificial em Recursos Administrativos (Iara).

Fazendo uma reflexão crítica quanto ao emprego da Iara é que prestamos nossas homenagens aos 100 anos do Carf.

Função a ser desenvolvida pela Iara

A Iara é uma inteligência artificial desenvolvida pelo Serpro e que promete reduzir de seis para uma ano o tempo de duração de processos administrativos fiscais federais. Segundo informações prestadas no site do Serpro, o sistema vai fazer uma triagem dos processos considerando, dentre outros critérios, os fundamentos desenvolvidos pelas partes e seus pedidos, assim como precedentes do próprio tribunal administrativo e da instância judicial.

Com base em tais informações, a IA apresentará aos julgadores as possíveis respostas a serem ofertadas ao caso, com a elaboração do relatório e, até mesmo, da motivação do voto a ser proferido considerando os precedentes dos tribunais (Carf e tribunais judiciais) para a questão [2].

Não obstante, as autoridades aqui citadas no início desse artigo são firmes em ressaltar que a Iara não substituirá o papel dos julgadores, a quem continuará competindo a responsabilidade de emanar o voto a ser oferecido em um dado processo administrativo.

Diante dessa realidade que se afigura e que, no atual contexto social que vivemos, parece ser uma realidade sem volta, mister se faz promover alguns questionamentos a respeito do emprego dessa tecnologia no julgamento de processos administrativos fiscais.

Papel da Iara na legitimidade das decisões a serem proferidas pelo Carf
Pode a inteligência artificial fortalecer a legitimidade do processo administrativo fiscal ou, ao contrário, corroê-la até seus alicerces? Essa pergunta que, como visto acima, um dia pertenceu ao futuro, já nos exige resposta imediata, tratando-se, pois, de uma questão presente.

E para responder tal questionamento convém frisar que a tecnologia é algo transversal na civilização humana, alcançando tudo e todos, sem possibilidade de refúgio ou neutralidade. Como bem lembrou o biólogo Edward Wilson [3], vivemos numa “Civilização Star Wars”: carregamos emoções da Idade da Pedra, mantemos instituições medievais, mas convivemos com tecnologias que parecem divinas. É nesse cenário paradoxal que a inteligência artificial se instala, exigindo reflexão crítica acerca de como será incorporada em situações que lidam com a confiança e a legitimidade do Estado.

É importante deixar claro que a inteligência artificial não é apenas mais uma ferramenta técnica e muito menos avalorativa. Ela carrega a natureza de uma tecnologia de propósito geral, penetrando em todas as áreas da vida social e institucional com impactos que vão do cotidiano ao sistêmico. Sua performance, contudo, é invisível: convivemos diariamente com os efeitos de algoritmos que classificam, preveem e recomendam, mas não temos acesso às operações internas que os conduzem. Esse poder opaco desloca a forma como decisões são produzidas e percebidas. No processo administrativo fiscal, desafios como este precisam ser muito bem conhecidos.

Daí a importância de se trazer a visão da “inteligência artificial responsável”. Trata-se de uma perspectiva multidisciplinar, orientada para minimizar consequências indesejáveis e não intencionais no desenvolvimento e utilização de sistemas de IA. Não é um ideal abstrato, mas um compromisso prático com a segurança, a transparência e a preservação da confiança pública nas instituições.

Em outros termos, a IA responsável busca garantir que os sistemas não causem danos, respeitem a autonomia humana, não discriminem pessoas ou grupos e utilizem recursos de modo eficiente. Esses objetivos se sustentam, basicamente, em quatro pilares centrais: legitimidade, transparência, responsabilização e equidade. A conexão entre eles é vital. Afinal, a legitimidade de um Estado não repousa apenas em sua legalidade formal, mas também na confiança que os cidadãos depositam em seus serviços. Quando essa confiança se rompe, a legitimidade desmorona.

É exatamente essa confiança que se encontra ameaçada diante do que Ryan Calo e Danielle Citron denominaram de “Estado Administrativo Automatizado” [4]. Nas suas análises, os autores revelam como algoritmos opacos e decisões ininteligíveis corroeram a fé pública, convertendo aquilo que deveria ser ferramenta de proteção em forma de punição digital. Sistemas que negam benefícios de maneira arbitrária, a perda progressiva de expertise dos servidores, incapazes de compreender ou justificar decisões de uma caixa-preta algorítmica, a ausência de trilhas de auditoria e, ainda, o uso do segredo comercial para blindar códigos e contratos, tudo isso a configurar um ambiente perigoso de esvaziamento do devido processo. O que se instala é uma “política oculta”, feita de decisões pretensamente técnicas que escapam ao escrutínio democrático.

Os exemplos reunidos por Calo e Citron são contundentes. No Arkansas, um algoritmo falho negou cuidados essenciais a pessoas amputadas com a lógica cruel de que, por não terem pés, não precisavam de benefícios destinados a eles. Em Idaho, um sistema baseado em dados frágeis reduziu arbitrariamente as horas de cuidado domiciliar de cidadãos vulneráveis, e o segredo comercial foi invocado para impedir a revisão judicial. No Texas e em Nova York, professores foram demitidos com base em avaliações algorítmicas que não podiam ser questionadas, em clara afronta ao devido processo. E, na lista de proibição de voar do Departamento de Segurança Interna estadunidense, milhares de cidadãos foram confundidos com terroristas por algoritmos rudimentares, vendo seus direitos restringidos sem um mecanismo eficaz de contestação.

Os episódios acima são alertas concretos a respeito do risco de, em nome da suposta eficiência e celeridade, se instalar um regime de arbitrariedades maquínicas que corroem a legitimidade do Estado, a partir do uso de tecnologias que desafiam o nosso conhecimento, mas cuja aplicação em escala é inevitável e potencializa os riscos aqui apontados.

Trazemos agora essa discussão para o âmbito do processo administrativo fiscal federal. De um lado, se anseia por eficiência: a possibilidade de reduzir o estoque de processos no Carf de seis para apenas um ano conforma uma expectativa legítima.

Contudo, há que se ter uma atenção redobrada neste processo: a busca pela otimização sem freios abre um trade-off arriscado, pois eficiência sem clareza leva inevitavelmente a uma crise de legitimidade e de segurança jurídica. Como lembra os já citados Calo e Citron, resultados ininteligíveis corroem a confiança do serviço estatal [5].

É nesse ponto que a aplicação da visão da inteligência artificial responsável no processo administrativo fiscal deixa de ser opção para se tornar uma condição de legitimidade.

Desde a fase inicial de implantação de ferramentas de inteligência artificial em tribunais administrativos como o Carf, é possível adotar medidas que fortaleçam a confiança pública nesse processo. A clareza começa pela explicitação das razões que justificam a adoção desse tipo de tecnologia, acompanhada da divulgação dos critérios técnicos que orientam sua utilização. Essa transparência deve se materializar em documentos acessíveis, como relatórios, notas públicas e informações disponíveis nos sites institucionais. Ao longo desse percurso, a inclusão de diferentes atores: conselheiros, técnicos, acadêmicos e representantes da sociedade civil, contribui para consolidar a legitimidade das escolhas feitas e reforçar a percepção de que a tecnologia está a serviço da justiça fiscal, e não acima dela.

Após o processo de implantação, por sua vez, o aprimoramento e acompanhamento deve ser constante: há a necessidade de (1) se adotar auditorias e relatórios técnicos com uma periodicidade já pré-estabelecida; (2) fixar métricas de desempenho visíveis; e (3) assegurar uma explicabilidade mínima para cada função algorítmica. Tais demandas não devem ser tratadas apenas como sugestões de boas práticas, mas sim como exigências de um devido processo adaptado à era tecnológica.

A decisão final, por seu turno, deve sempre permanecer humana, cabendo aos conselheiros do CARF a responsabilidade última. Supervisão não pode ser mera formalidade: é preciso que seja significativa para garantir que os julgadores acompanhem, corrijam e validem as recomendações do sistema de IA.

Tão importante quanto os temas acima, é a curadoria das bases de dados, que deve diferenciar o peso de decisões unânimes, majoritárias ou de voto de qualidade, fornecendo metadados que deem contexto à decisão final, em especial em um ambiente em que uma decisão pelo voto de qualidade apresenta consequências jurídicas relevantes.

Logo, toda essa arquitetura precisa estar ancorada em governança sólida, com comitês interdisciplinares que integrem técnicos, acadêmicos, representantes da sociedade civil e conselheiros. É fundamental, portanto, que se assegure um devido processo tecnológico, que garanta ao contribuinte a possibilidade de contestar não apenas a decisão, mas também a base de dados e os métodos utilizados pelo algoritmo [6].

Conclusões
Aplicado ao processo administrativo fiscal, o paralelo quanto à utilização da IA é claro: adotar algoritmos sem transparência de todo o processo de implementação e com base em parâmetros sólidos de governança pode significar não apenas externalidades a ensejar decisões equivocadas, mas a degradação da confiança pública em um tribunal secular e que tanto contribuiu – e ainda contribui – para a justiça fiscal no país.

É igualmente importante reconhecer, de fato, que tanto humanos quanto máquinas estão sujeitos a falhas, porém os erros produzidos por sistemas automatizados, quando protegidos pela opacidade técnica ou pelo discurso da eficiência, tendem a ser mais difíceis de serem identificados e, por conseguinte, contestados e corrigidos, o que compromete a confiança pública e certamente fragiliza o devido processo.

Por isso, a inteligência artificial responsável não deve ser entendida como uma espécie de freio à inovação, mas uma condição necessária para que ela se desenvolva em harmonia com os valores do Estado de Direito.

O futuro do processo administrativo e, consequentemente, do próprio Carf, será definido pela capacidade de integrar tecnologia e valores institucionais, de forma a reforçar legitimidade, transparência e justiça; o maior desafio, portanto, não está em escolher entre a IA como ameaça ou como aliada, mas em compreender que sua presença é inevitável e, justamente por isso, precisa ser orientada por parâmetros que preservem a confiança social no Estado e não o contrário, o que implicaria a perda da sua legitimidade.

[1] Os interessados podem assistir todas as palestras abertas ao público aqui e aqui. Inclusive, o tema dessa coluna foi objeto de uma mesa de debates integrada pela co-autora do presente texto.

[2] Aqui.

[3] WILSON, Edward O. The Social Conquest of Earth. We have created a Star Wars civilization, with Stone Age emotions, medieval institutions, and godlike technology. In: The Social Conquest of Earth. [s.l.]: [s.n.], 2012.

[4] CALO, Ryan; CITRON, Danielle Keats. The Automated Administrative State: A Crisis of Legitimacy. Emory Law Journal, Atlanta, v. 70, n. 4, p. 797-846, 2021. Esse artigo pode ser conferido aqui.

[5] CALO, Ryan; CITRON, Danielle Keats. The Automated Administrative State: A Crisis of Legitimacy. Emory Law Journal, Atlanta, v. 70, n. 4, p. 797-846, 2021.

[6] A experiência recente do Smart Sampa, sistema de monitoramento em São Paulo, demonstra o que acontece quando a visão da IA responsável é ignorada. Com mais de 31 mil câmeras, tornou-se o maior sistema de vigilância da América Latina. No entanto, relatórios de transparência revelaram que, em seis meses de operação, de 1.246 abordagens realizadas, 82 pessoas foram conduzidas e posteriormente liberadas por erros ou inconsistências, sendo 23 diretamente causadas por falhas de reconhecimento facial. Houve casos emblemáticos, como o de uma mulher grávida levada por engano, cujo desfecho foi um parto prematuro. Tal ocorrido, todavia, foi insuficiente para a revisão e implementação de uma IA responsável pelo Município de São Paulo, que continua sem submeter o sistema a uma transparência a respeito dos detalhes da sua implementação, tampouco presta informações sobre os dados de treinamento, inclusive se foram utilizadas medidas para tratar o risco de viés racial, por exemplo.

Mini Curriculum

Diego Diniz Ribeiro
é advogado tributarista e aduanerista, ex-conselheiro titular do Carf na 3ª Seção de Julgamento, professor de Direito Tributário, Direito Aduaneiro, Processo Tributário e Processo Civil, doutor em Processo Civil pela USP, mestre em Direito Tributário pela PUC-SP, pós-graduado em Direito Tributário pelo Ibet e pesquisador do NEF da FGV-SP e do grupo de estudos de Processo Tributário Analítico do Ibet.

Silvia Piva
é doutora e mestre em Direito Tributário pela PUC-SP, professora de Direito e Tecnologia no Ibmec e advogada, pesquisadora do IEA-USP, integra o GPGAIA, dedicado à governança de agentes de IA.

Continue lendo