IARA: A inteligência artificial do Carf
Eduardo Salusse
Anunciou-se que a inteligência artificial desenvolvida pelo Serviço Federal de Processamento de Dados (Serpro) irá transformar o Conselho Administrativo de Recursos Fiscais (Carf), reduzindo o tempo médio de tramitação dos processos de 6 anos para 1 ano. A solução foi batizada de IARA (fonte: serpro.gov.br). A princípio, pode ser uma boa notícia … ou não.
No folclore brasileiro, IARA é uma sereia – parte mulher, parte peixe – com grande beleza e voz sedutora, conhecida por atrair homens que estão nas margens de rios, levando-os definitivamente para o fundo d´água.
Assim como a sereia IARA, há um não folclórico medo da outra IARA – a inteligência artificial do Carf – fazer submergirem os contribuintes, justificando alguma desconfiança no anúncio.
É inegável que recursos tecnológicos são necessários para imprimir eficiência em todos os níveis da administração pública. É certo que a sociedade quer e deve apoiar a iniciativa, desde que esteja segura da imparcialidade e da neutralidade da ferramenta.
Segundo informado pelo Serpro “o sistema analisa o cumprimento de requisitos, separa processos de acordo com os pedidos, elabora resumos e, ‘destaco’, até compõe decisões com base em jurisprudências, substituindo tarefas antes desempenhadas por assessores. A tecnologia introduz o conceito da Administração Tributária 3.0, que vai além da digitalização, trazendo inteligência para interpretar relatórios, identificar alegações dos contribuintes, consultar jurisprudência e sugerir decisões.”
Reitero que é louvável a iniciativa, mas o seu uso deve ser definido com cautela e transparência, especialmente para conferir a necessária credibilidade às decisões que com o apoio de IARA serão proferidas.
Isso porque é cediço que “o viés de inteligência artificial, também chamado de viés de aprendizado de máquina ou viés de algoritmo, refere-se à ocorrência de resultados tendenciosos devido a vieses humanos que distorcem os dados de treinamento originais ou o algoritmo de IA, levando a resultados distorcidos e potencialmente prejudiciais” (Holdsworth, IBM, 2023).
Os dados disponibilizados para usar qualquer sistema de inteligência artificial precisam ser suficientes e adequados para utilização prática e confiável do sistema. Os dados são sempre colhidos do passado, inclusive com erros e iniquidades anteriores. A inteligência artificial não entende se os dados a ela oferecidos são objetivos ou subjetivos, ou seja, podem já carregar um juízo de valor apto a interferir na conclusão. Mais do que isso, os algoritmos podem ampliar os vieses da ferramenta, pois “quem desenvolve IAs geralmente está focado em atingir um objetivo específico, visando obter o resultado mais preciso com os dados disponíveis” (ilumeo.com.br, 2021).
Os desenvolvedores da inteligência artificial, especialmente quando destinada a operacionalizar questões ligadas ao mundo do direito, devem ter uma dificuldade a mais para automatizarem decisões, tamanha a quantidade de ciências que se entrelaçam com o direito, potencializando, sobretudo, a dificuldade de definir o que é imparcial ou justo. E sabemos que no direito há “trade-offs” na aplicação de normas e princípios que se chocam, exigindo a ponderação humana na busca por uma solução mais justa.
Os vieses em todas as ferramentas de inteligência artificial são fontes de muitos debates e não por outra razão ainda não foram adotados pelo Poder Judiciário para “compor decisões”. Parece claro, ainda que para não especialistas como eu, que o viés pode fazer um sistema apresentado como neutro e sem preconceitos reproduza formas de discriminação contra determinados grupos. O documentário “Coded Bias” (Preconceito Codificado) veiculado em um canal de streaming abordou exemplos de violações de direitos por força da inserção de vieses humanos em algoritmos.
Os dados, os algoritmos e as pessoas são as fontes possíveis de vieses. Mas, em última análise, “todas se resumem às pessoas, pois são elas que constroem a IA e selecionam os dados de treinamento” (Ilumeo, op. cit).
No artigo “Notes from the AI Frontier: Tackling Bias in AI (and in Humans)” (fonte: McKinsey Global Institute) destaca-se a necessidade de julgamento humano para garantir que decisões suportadas por sistemas de inteligência artificial sejam justas. Embora métricas estatísticas e definições de justiça sejam úteis, elas não capturam totalmente as nuances dos contextos onde os sistemas serão implementados.
O Carf é uma instituição centenária e de extrema importância na pacificação de litígios entre o Fisco e contribuintes, contando com integrantes altamente técnicos e buscando a máxima qualidade de suas decisões. Não se espera que as decisões sejam totalmente automatizadas, mas que as ferramentas tecnológicas sejam cautelosamente utilizadas como suporte de pesquisa aos seus julgadores.
A sociedade civil, a academia, o empresariado, a advocacia pública e privada deveriam ser convidados a acompanhar a construção deste sistema, sempre com a certeza de que o pré-consentimento dos agentes que atuam no microssistema do processo administrativo fiscal decorre do atestado de que há imparcialidade, neutralidade e, enfim, eficiência da ferramenta que contribuirá para a desejada justiça administrativa.
Nunca é demais relembrar que o Carf não é órgão arrecadador, mas órgão pacificador e estabilizador de conflitos fiscais. É preciso ter empatia e colocar-se no lugar do outro, notadamente daqueles contra quem o Estado arrecadador lança sua poderosa força, por não raras vezes de forma exagerada e injusta, atribuindo-lhes a genérica pecha de devedores, detentos ou sonegadores.
Em tempos de árduo esforço para restabelecer a relação de confiança entre Fisco e contribuinte, não poderá IARA, nem a sereia e nem a inteligência artificial, assumir o menor risco de seduzir e afundar aqueles que se encantarem por sua beleza.
Eduardo Salusse
Sócio fundador do escritório responsável pela área de direito tributário. Responsável executivo de pesquisa no Núcleo de Estudos Fiscais da FGV DIREITO SP. Professor em direito tributário no IBET, APET, FGV Direito e outras instituições. Conselheiro Honorário e atual Presidente do MDA – Movimento de Defesa da Advocacia. Colunista no Jornal Valor Econômico (Fio da Meada).