IARA: A inteligência artificial do Carf

Eduardo Salusse

Anunciou-se que a inteligência artificial desenvolvida pelo Serviço Federal de Processamento de Dados (Serpro) irá transformar o Conselho Administrativo de Recursos Fiscais (Carf), reduzindo o tempo médio de tramitação dos processos de 6 anos para 1 ano. A solução foi batizada de IARA (fonte: serpro.gov.br). A princípio, pode ser uma boa notícia … ou não.

No folclore brasileiro, IARA é uma sereia – parte mulher, parte peixe – com grande beleza e voz sedutora, conhecida por atrair homens que estão nas margens de rios, levando-os definitivamente para o fundo d´água.

Assim como a sereia IARA, há um não folclórico medo da outra IARA – a inteligência artificial do Carf – fazer submergirem os contribuintes, justificando alguma desconfiança no anúncio.

É inegável que recursos tecnológicos são necessários para imprimir eficiência em todos os níveis da administração pública. É certo que a sociedade quer e deve apoiar a iniciativa, desde que esteja segura da imparcialidade e da neutralidade da ferramenta.

Segundo informado pelo Serpro “o sistema analisa o cumprimento de requisitos, separa processos de acordo com os pedidos, elabora resumos e, ‘destaco’, até compõe decisões com base em jurisprudências, substituindo tarefas antes desempenhadas por assessores. A tecnologia introduz o conceito da Administração Tributária 3.0, que vai além da digitalização, trazendo inteligência para interpretar relatórios, identificar alegações dos contribuintes, consultar jurisprudência e sugerir decisões.”

Reitero que é louvável a iniciativa, mas o seu uso deve ser definido com cautela e transparência, especialmente para conferir a necessária credibilidade às decisões que com o apoio de IARA serão proferidas.

Isso porque é cediço que “o viés de inteligência artificial, também chamado de viés de aprendizado de máquina ou viés de algoritmo, refere-se à ocorrência de resultados tendenciosos devido a vieses humanos que distorcem os dados de treinamento originais ou o algoritmo de IA, levando a resultados distorcidos e potencialmente prejudiciais” (Holdsworth, IBM, 2023).

Os dados disponibilizados para usar qualquer sistema de inteligência artificial precisam ser suficientes e adequados para utilização prática e confiável do sistema. Os dados são sempre colhidos do passado, inclusive com erros e iniquidades anteriores. A inteligência artificial não entende se os dados a ela oferecidos são objetivos ou subjetivos, ou seja, podem já carregar um juízo de valor apto a interferir na conclusão. Mais do que isso, os algoritmos podem ampliar os vieses da ferramenta, pois “quem desenvolve IAs geralmente está focado em atingir um objetivo específico, visando obter o resultado mais preciso com os dados disponíveis” (ilumeo.com.br, 2021).

Os desenvolvedores da inteligência artificial, especialmente quando destinada a operacionalizar questões ligadas ao mundo do direito, devem ter uma dificuldade a mais para automatizarem decisões, tamanha a quantidade de ciências que se entrelaçam com o direito, potencializando, sobretudo, a dificuldade de definir o que é imparcial ou justo. E sabemos que no direito há “trade-offs” na aplicação de normas e princípios que se chocam, exigindo a ponderação humana na busca por uma solução mais justa.

Os vieses em todas as ferramentas de inteligência artificial são fontes de muitos debates e não por outra razão ainda não foram adotados pelo Poder Judiciário para “compor decisões”. Parece claro, ainda que para não especialistas como eu, que o viés pode fazer um sistema apresentado como neutro e sem preconceitos reproduza formas de discriminação contra determinados grupos. O documentário “Coded Bias” (Preconceito Codificado) veiculado em um canal de streaming abordou exemplos de violações de direitos por força da inserção de vieses humanos em algoritmos.

Os dados, os algoritmos e as pessoas são as fontes possíveis de vieses. Mas, em última análise, “todas se resumem às pessoas, pois são elas que constroem a IA e selecionam os dados de treinamento” (Ilumeo, op. cit).

No artigo “Notes from the AI Frontier: Tackling Bias in AI (and in Humans)” (fonte: McKinsey Global Institute) destaca-se a necessidade de julgamento humano para garantir que decisões suportadas por sistemas de inteligência artificial sejam justas. Embora métricas estatísticas e definições de justiça sejam úteis, elas não capturam totalmente as nuances dos contextos onde os sistemas serão implementados.

O Carf é uma instituição centenária e de extrema importância na pacificação de litígios entre o Fisco e contribuintes, contando com integrantes altamente técnicos e buscando a máxima qualidade de suas decisões. Não se espera que as decisões sejam totalmente automatizadas, mas que as ferramentas tecnológicas sejam cautelosamente utilizadas como suporte de pesquisa aos seus julgadores.

A sociedade civil, a academia, o empresariado, a advocacia pública e privada deveriam ser convidados a acompanhar a construção deste sistema, sempre com a certeza de que o pré-consentimento dos agentes que atuam no microssistema do processo administrativo fiscal decorre do atestado de que há imparcialidade, neutralidade e, enfim, eficiência da ferramenta que contribuirá para a desejada justiça administrativa.

Nunca é demais relembrar que o Carf não é órgão arrecadador, mas órgão pacificador e estabilizador de conflitos fiscais. É preciso ter empatia e colocar-se no lugar do outro, notadamente daqueles contra quem o Estado arrecadador lança sua poderosa força, por não raras vezes de forma exagerada e injusta, atribuindo-lhes a genérica pecha de devedores, detentos ou sonegadores.

Em tempos de árduo esforço para restabelecer a relação de confiança entre Fisco e contribuinte, não poderá IARA, nem a sereia e nem a inteligência artificial, assumir o menor risco de seduzir e afundar aqueles que se encantarem por sua beleza.

Eduardo Salusse

Sócio fundador do escritório responsável pela área de direito tributário. Responsável executivo de pesquisa no Núcleo de Estudos Fiscais da FGV DIREITO SP. Professor em direito tributário no IBET, APET, FGV Direito e outras instituições. Conselheiro Honorário e atual Presidente do MDA – Movimento de Defesa da Advocacia. Colunista no Jornal Valor Econômico (Fio da Meada).

Gostou do artigo? Compartilhe em suas redes sociais

kuwin

iplwin

my 11 circle

betway

jeetbuzz

satta king 786

betvisa

winbuzz

dafabet

rummy nabob 777

rummy deity

yono rummy

shbet

kubet

winbuzz

daman games

winbuzz

betvisa

betvisa

betvisa

fun88

10cric

melbet

betvisa

iplwin

iplwin login

iplwin app

ipl win

1win login

indibet login

bc game download

10cric login

fun88 login

rummy joy app

rummy mate app

yono rummy app

rummy star app

rummy best app

iplwin login

iplwin login

dafabet app

https://rs7ludo.com/

dafabet

dafabet

crazy time A

crazy time A

betvisa casino

Rummy Satta

Rummy Joy

Rummy Mate

Rummy Modern

Rummy Ola

Rummy East

Holy Rummy

Rummy Deity

Rummy Tour

Rummy Wealth

yono rummy

dafabet

Jeetwin Result

Baji999 Login

Marvelbet affiliate

krikya App

betvisa login

91 club game

daman game download

link vào tk88

tk88 bet

thiên hạ bet

thiên hạ bet đăng nhập

six6s

babu88

elonbet

bhaggo

dbbet

nagad88

rummy glee

yono rummy

rummy perfect

rummy nabob

rummy modern

rummy wealth

jeetbuzz app

iplwin app

rummy yono

rummy deity 51

rummy all app

betvisa app

lotus365 download

betvisa

mostplay

4rabet

leonbet

pin up

mostbet

Teen Patti Master

Fastwin App

Khela88

Fancywin

Jita Ace

Betjili

Betvisa

Babu88

MCW

Jwin7

Glory Casino

Khela88

Depo 25 Bonus 25

Depo 25 Bonus 25