A inteligência artificial na fiscalização e no contencioso tributário
Por Gustavo Brigagão
22/10/2025 12:00 am
O auditório estava lotado, dois andares tomados, algo perto de 600 pessoas. Antes de iniciar a sua palestra sobre a IA no Direito, o desembargador decidiu inverter o script e fazer à plateia uma pergunta simples: quem preferiria ser julgado por inteligência artificial e quem escolheria um magistrado de carne e osso? Quase todas as mãos erguidas apontaram para o humano. A impressão era de unanimidade.
Ao constatar o resultado, ele passou a desafiá-lo, não com afirmações, mas com perguntas que se encaixavam como peças de um mesmo quebra-cabeça. Todos têm certeza de que os julgadores humanos, em sua totalidade, realmente leem por inteiro e com atenção as petições, contestações, recursos e contrarrazões, e não apenas as percorrem de maneira superficial? Mais do que ler, absorvem o que cada parte argumenta e cotejam essas razões antes de decidir? No plenário virtual, que as sustentações orais encaminhadas são de fato ouvidas e consideradas? Que ao aplicar a lei e a jurisprudência, o magistrado trabalha com referências tão atualizadas quanto possível às vésperas do julgamento? Que, sempre que solicitado, o julgador despacha no tempo devido? Que é viável conciliar celeridade e segurança jurídica de modo consistente ao longo de todo o ano, mesmo sob carga excessiva de processos?
Concluída a bateria de indagações, ele retornou ao ponto de partida e pediu que a plateia respondesse, uma vez mais, à mesma provocação: quantos, agora, preferiam a inteligência artificial a um julgador de carne e osso? O resultado se inverteu numa virada de 180 graus a favor da IA.
Esse episódio — real, simples na forma e incisivo no conteúdo — não pretendeu converter ninguém à ideia de substituir o humano pela máquina; pretendeu, isso sim, expor as fissuras da nossa confiança automática e absoluta em qualquer dos dois polos e preparar o terreno para a discussão que se impõe no momento em que vivemos.
Foi com referência a esse episódio que abri a minha fala sobre o tema, num excelente seminário realizado em Portugal, pelo Aconcarf (Associação dos Conselheiros Representantes dos Contribuintes no Carf) no início deste mês.
Nessa fala, apresentei o conceito de “Devido Processo Tecnológico”, cunhado por Daniela Keats Citron [1], bem como os princípios que dele emanam; mostrei como vem evoluindo a adoção de IA na fiscalização e no contencioso tributário (judicial e administrativo) e tracei os limites que devem, a meu ver, orientar o seu uso para gerar ganhos reais sem comprometer a imparcialidade.
Devido processo tecnológico
Um dos princípios constitucionais basilares assegurados a qualquer cidadão é que ele desfrute do devido processo legal quando submetido a qualquer procedimento estatal ou atividade jurisdicional de que faça parte.
Nesse novo mundo em que vivemos, o devido processo legal se amolda à nova realidade, e dele decorre a concepção do devido processo tecnológico como tradução, para a era algorítmica, das garantias que sempre estruturaram aquele princípio maior.
A expressão contextualiza o conjunto de salvaguardas que devem acompanhar qualquer uso de IA no contencioso judicial e administrativo, bem como em procedimentos do Poder Público que tenham por objeto o jurisdicionado.
A premissa é simples. A IA integra o fluxo de trabalho — ela organiza acervos, agrupa casos repetitivos, identifica precedentes e auxilia na redação de relatórios e peças afins. Tudo isso tem lugar legítimo quando a tecnologia atua em funções ancilares, sob supervisão humana, sem invadir o núcleo da decisão.
O devido processo tecnológico nasce para garantir que essa fronteira não se perca no caminho, mediante a observância dos seguintes princípios:
Transparência: é necessário explicitar critérios, dados e lógicas utilizados pelos sistemas; indicar quais algoritmos são empregados, com quais bases foram treinados, que instruções receberam e em que etapas do processo atuaram. Sem luz sobre esse percurso, não há como aferir neutralidade nem corrigir rumos.
Imparcialidade: decisões algorítmicas não podem ser enviesadas nem reproduzir discriminações embutidas nos dados ou no código.
Revisibilidade e contraditório: como observa Danielle Keats Citron, sistemas automatizados tendem a incorporar preconceitos das políticas públicas ou dos programadores, o que exige políticas auditáveis para identificar e corrigir vieses. A imparcialidade deve ser perseguida por meio de revisões independentes e testes contínuos, sob pena de a máquina se tornar uma instância opaca de convencimento. Toda atividade de IA precisa admitir auditoria técnica, revisão humana efetiva e registro do que foi aproveitado ou descartado.
Prestação de contas: a accountability, no contexto da automação administrativa, impõe que as autoridades públicas permaneçam responsáveis pelas decisões tomadas por sistemas que operam sob sua gestão. O deslocamento do poder decisório para programadores ou fornecedores não dissolve a responsabilidade estatal.
Correção (exatidão): decisões automatizadas devem ser fática e logicamente precisas, com mecanismos regulares de verificação e atualização das regras codificadas. Citron propõe que o devido processo tecnológico incorpore modelos inquisitivos de controle de qualidade, capazes de detectar erros sistemáticos e falhas algorítmicas antes que causem prejuízo em massa. Correção operacional, aliada à transparência, é condição para restaurar a confiança e a validade jurídica de decisões suportadas por IA.
Esses são os eixos que sustentam a imparcialidade quando a automação deixa de ser uma promessa distante e entra no cotidiano dos órgãos de julgamento.
IA na fiscalização, na PGFN e no contencioso judicial e administrativo
O CNJ (Conselho Nacional de Justiça) enxergou cedo o risco de uma adoção fragmentada e instituiu o Sinapses, exigindo o depósito de modelos e a padronização de práticas para permitir auditorias e reduzir assimetrias. Ao lado do Sinapses, o projeto Conecta dissemina nacionalmente soluções criadas localmente e, na Plataforma Digital do Poder Judiciário (PDPJ-Br), a Apoia — primeira IA generativa integrada — passou a oferecer relatórios, sínteses e triagens em ambiente institucional. Ao centralizar diretrizes e infraestrutura (Sinapses, Conecta e Apoia), o CNJ evita que diferentes tribunais cristalizem vieses regionais sob a aparência de ganho de eficiência e aproxima a gestão da IA das exigências de publicidade, controle e uniformidade, que sempre reclamamos nas rotinas judiciais.
No Supremo Tribunal Federal, a IA foi incorporada em funções restritas ao ambiente interno por meio do Projeto Maria (Módulo de Apoio para Redação com Inteligência Artificial), voltada à geração de minutas de ementas, relatórios em RE/ARE e análises iniciais em reclamações, sempre com revisão humana e integração às rotinas do gabinete; a experiência sucede o Projeto Victor, direcionado à classificação e à identificação de temas de repercussão geral.
No Superior Tribunal de Justiça, a adoção se concentrou na organização do acervo por meio do Athos, sistema de identificação e monitoramento de temas repetitivos, agrupamento de recursos por tese e sinalização de coerência jurisprudencial, sem delegar à máquina a apreciação do mérito.
Há, contudo, um risco intrínseco que o devido processo tecnológico precisa enfrentar: o viés algorítmico. Modelos aprendem com padrões históricos e tendem a repeti-los — ainda que esses padrões tragam distorções. Se o treinamento embute leituras punitivistas, interpretações estreitas de súmulas ou recortes fáticos limitados, a IA reproduzirá tais escolhas e lhes dará escala. Daí a exigência de testes periódicos de desempenho e de viés, com capacidade institucional de ajustar rotas e, quando necessário, suspender o uso até que o desalinhamento seja corrigido.
No Carf, o lugar legítimo da IA se corporifica em atribuições ancilares: triagem, verificação de requisitos de admissibilidade, distribuição por matéria e organização de pautas — hoje reunidas em iniciativas como o projeto IARA: triagem, verificação de requisitos de admissibilidade, distribuição por matéria e organização de pautas, hoje reunidas sob iniciativas como o projeto Iara. A fronteira problemática surge quando o sistema passa a sugerir minutas de voto ou linhas prováveis de decisão.
Em cenário de cobrança por produtividade, a tendência de acolher a sugestão automática sem exame aprofundado ameaça a autonomia do conselheiro e esvazia o colegiado. Esse é um aspecto que muito nos preocupa. O devido processo tecnológico impõe aqui duas travas: transparência integral sobre as instruções e bases do modelo e identificação, no processo, de toda contribuição algorítmica ao convencimento, para que o controle das partes e a própria responsabilização do julgador não se tornem ficção. Sugestões de votos devem ser terminantemente vedadas.
O mesmo raciocínio vale para a Receita Federal e para a fiscalização. Ferramentas como Arpia e Iris, usadas em perfis de risco, fronteiras e viagens, são valiosas no cruzamento de dados e na seleção de casos com maior probabilidade de inconsistência; mas não podem se converter em atalho para autuações fabricadas por pontuações opacas. O devido processo tecnológico exige critérios objetivos de priorização, trilhas de auditoria que permitam reconstituir o caminho até o alerta e contraditório qualificado quando a medida pretendida possa produzir gravame relevante. Sem isso, multiplicam-se falsos positivos e, com eles, a indevida inversão prática do ônus da prova.
Um exemplo recente, na cobrança da dívida ativa, ilustra essa lógica. A PGFN passou a usar a IA generativa Spoiler para gerir milhões de execuções fiscais. A ferramenta lê andamentos, resume o estado do processo e sugere o próximo passo — sempre sujeito à revisão do procurador. Isso permite classificar processos em blocos e movimentá-los em lote, inclusive para requerer a extinção de execuções já quitadas. O projeto, iniciado em 2023, integrou dados dispersos em um ambiente único, com apoio técnico do Serpro. Há ganhos de eficiência, mas a cautela permanece: revisão humana obrigatória, atenção a alucinações e baixa explicabilidade, respeito à proteção de dados e observância das diretrizes de governo digital [2].
No Judiciário, as experiências mais seguras preservam a ancilaridade. Ferramentas de automação não generativa que agrupam temas repetitivos e localizam precedentes, bem como módulos que sintetizam peças e elaboram relatórios sujeitos à revisão humana, demonstram que a tecnologia cumpre melhor seu papel quando acelera o que é mecânico para liberar o que é interpretativo. O devido processo tecnológico, nesses casos, aparece como regra de uso: a máquina ajuda, o juiz decide e responde.
Um ponto adicional, frequentemente negligenciado, reforça a necessidade do devido processo tecnológico: o distinguishing. A teoria dos precedentes não autoriza decisões por atacado. Ela exige cotejo de fatos e fundamentos para aplicar, modular ou afastar o precedente. Sistemas que empurram a aplicação automática de súmula ou repetitivo, sem espaço para demonstrar peculiaridades relevantes, transformam o jurisdicionado em figurante. O devido processo tecnológico, ao exigir transparência sobre o papel da IA, a revisão humana e a preservação do contraditório, protege esse espaço de personalização do julgamento.
Conclusão
Em síntese, o devido processo tecnológico não é um adorno conceitual, mas a arquitetura mínima para que a IA sirva ao processo — e jamais o substitua. Seu papel é manter nítida a linha que separa o que a máquina faz bem (organizar, classificar, sintetizar, sinalizar) do que só o humano pode fazer com legitimidade (valorar prova, distinguir precedentes, fundamentar e decidir). Transparência sobre ferramentas e dados, revisibilidade com trilhas de auditoria, contraditório efetivo, entre outros, não são gentilezas: são as condições que impedem que padrões estatísticos se apresentem como razões jurídicas.
Esse desenho já está parcialmente em marcha. No plano nacional, o CNJ combinou governança e escala com Sinapses, Conecta e Apoia, evitando ilhas tecnológicas e reduzindo assimetrias entre tribunais. No STF, a Maria acelera bastidores redacionais sem tocar a autoria do voto; no STJ, o Athos organiza temas repetitivos para devolver tempo ao que é interpretativo. No Carf, iniciativas como o Iara fazem sentido quando ficam na triagem, na admissibilidade e na gestão de pauta — não quando tentam “sugerir” o voto. Na fiscalização, ferramentas como Arpia e Iris têm utilidade concreta ao direcionar inspeções e priorizar casos, desde que seus critérios sejam objetivos, auditáveis e proporcionais ao impacto sobre o contribuinte. Na PGFN, o Spoiler gere, de forma racional, milhões de execuções fiscais.
O risco que atravessa todas essas frentes é claro: viés algorítmico ampliado por opacidade e por pressões de produtividade. Sem testes periódicos de desempenho e de viés, sem logs acessíveis e sem um “botão de parada” institucional, a promessa de eficiência degenera em decisões padronizadas por inércia, com falsa aparência de neutralidade. O resultado é perverso: trocam-se muitos vieses humanos por um único viés algorítmico — mais silencioso, mais rápido e igualmente injusto.
O caminho responsável é pragmático. Primeiro, escopo: IA em funções ancilares; núcleo decisório exclusivamente humano. Segundo, governança: registro de uso no próprio processo, documentação de modelos e dados, comitês multidisciplinares e auditorias recorrentes. Terceiro, accountability: identificação clara de quem revisou e assumiu a peça produzida com apoio de IA, com canais de contestação e métricas que privilegiem qualidade de fundamentação (e não apenas velocidade). Quarto, formação contínua: letramento algorítmico para julgadores, conselheiros, auditores e equipes, a fim de evitar a captura cognitiva pelo “atalho” da máquina.
No fim, a régua é de simples enunciação: ferramenta, não árbitro; apoio, não substituição. IA para preparar o terreno; pessoas para decidir, responder e explicar.
Se mantivermos essa ordem, CNJ, STF, STJ, Carf, PGFN, Receita e fiscalização colherão ganhos reais de eficiência sem renunciar à imparcialidade que sustenta a legitimidade do sistema. Se a abandonarmos, voltaremos ao auditório lotado e veremos — em novos 180 graus — a confiança na IA então manifestada na repetição da pergunta feita pelo desembargador se esvair quando se constatar que a justiça entendida como boa deixará de ser explicável por quem assina a decisão.
_____________________
[1] in Technological Due Process, Washington University Law Review, v.85, 1249 (2008)
[2] OLIVON, Beatriz. “PGFN adota IA para gerir milhões de execuções fiscais”. Valor Econômico — caderno Legislação, 20 out. 2025. Aqui.
Mini Curriculum
é presidente nacional do Cesa (Centro de Estudos das Sociedades de Advogados); presidente honorário da ABDF (Associação Brasileira de Direito Financeiro); vice-presidente do Fórum Permanente de Direito Tributário da Escola da Magistratura do Rio de Janeiro; ex-membro do Executive Committee of The International Fiscal Association (IFA – 2017/18); membro do conselho de administração da Câmara Britânica (Britcham); diretor da Federação das Câmaras de Comércio do Exterior (FCCE); membro do Caeft (Conselho de Altos Estudos de Finanças e Tributação), da Associação Comercial de São Paulo; professor da Faculdade de Direito da Universidade Cândido Mendes (1993/2004); professor na pós-graduação de Direito Tributário da Fundação Getulio Vargas – FGV; sócio fundador do escritório Brigagão, Duque Estrada — Advogados.
Continue lendo
Campeões da reforma tributária: setores econômicos beneficiados com IBS e CBS
Por Matheus Meneghel Costa
Regimes aduaneiros especiais na reforma tributária: mudanças que merecem atenção
Por Liziane Angelotti Meira
Reforma tributária e o cooperativismo no agronegócio (parte 1)
Por Fábio Pallaretti Calcini