A inteligência artificial tem remodelado profundamente a atuação da Administração Tributária. De métodos analógicos e reativos, passamos à adoção de sistemas automatizados de classificação de risco, auditoria digital e cruzamento massivo de dados. Essa transformação visa à eficiência: otimizar recursos, reduzir custos e ampliar o alcance fiscal. No entanto, é preciso perguntar: a que custo?
Os avanços tecnológicos, embora promissores, trazem sérias implicações constitucionais. O devido processo legal, a publicidade dos atos administrativos e os direitos à ampla defesa e ao contraditório não podem ser relativizados pela lógica da eficiência. Em especial, quando decisões que afetam diretamente a esfera jurídica do contribuinte passam a ser tomadas por sistemas automatizados, muitas vezes sem transparência ou possibilidade real de contestação[1].
Conheça o JOTA PRO Tributos, plataforma de monitoramento tributário para empresas e escritórios com decisões e movimentações do Carf, STJ e STF
Danielle Citron cunhou a expressão technological due process para descrever esse problema: decisões públicas delegadas a algoritmos, sem justificativa inteligível ou supervisão humana efetiva, colocam em risco a própria noção de legalidade e de responsabilização estatal[2]. A fiscalização tributária algorítmica, quando opaca, tende a escapar do controle democrático e jurídico.
Outro ponto crítico é o risco de discriminação algorítmica. Os sistemas de IA aprendem a partir de dados históricos, que, por sua vez, refletem padrões de desigualdade. Isso pode levar à sobreposição fiscal em grupos vulneráveis, como microempresas, profissionais autônomos e contribuintes de menor capacidade contributiva. Sem avaliações de impacto algorítmico, há grande probabilidade de replicação e ampliação de injustiças no exercício do poder de tributar[3].
A falta de transparência é agravada pelo funcionamento em “caixa-preta” de muitos desses sistemas. Os critérios de seleção fiscal, parâmetros de risco e decisões automatizadas não são publicizados nem auditáveis pelos contribuintes, contrariando o princípio da publicidade (CF/88, artigo 37) e o direito à explicação previsto na Lei Geral de Proteção de Dados[4]. Quando um contribuinte é auditado ou tem a restituição retida sem conhecer os fundamentos que motivaram tal medida, há uma ruptura na lógica republicana da Administração Pública.
O PL 2338/2023, ao propor regras para decisões automatizadas no setor público, avança ao exigir explicabilidade e possibilidade de revisão humana. No entanto, sua efetividade dependerá da existência de instrumentos concretos de controle e responsabilização. Sem auditorias independentes e canais institucionais de contestação, o risco é de se manter uma fachada de legalidade sem substância protetiva[5].
As questões técnicas da tributação algorítmica não devem obscurecer seu caráter eminentemente político e jurídico. O que está em jogo é a legitimidade da ação fiscal em uma era de automação. A governança desses sistemas precisa ser robusta, democrática e baseada em evidências. Modelos como o AI Act europeu e a Avaliação de Impacto Algorítmico canadense já oferecem diretrizes para uso responsável da IA em contextos sensíveis, impondo obrigações de transparência, revisão e participação social⁶.
No Brasil, a realidade ainda está distante desses parâmetros. Contribuintes não têm acesso aos critérios utilizados nos algoritmos de seleção, tampouco participam da definição de políticas que afetam diretamente sua relação com o fisco. Isso cria uma assimetria informacional grave e mina a confiança no sistema tributário[7].
Estudos demonstram que a confiança nas tecnologias públicas depende da combinação entre transparência, responsabilidade institucional e engajamento social. Goossens, Keymolen e Stanojević destacam que tecnologias emergentes não são neutras — seu impacto depende das estruturas de governança que as cercam[8]. Se não houver controle externo eficaz, revisão dos sistemas automatizados e abertura à participação dos contribuintes, o poder de tributar poderá se transformar em poder de vigiar sem limites.
Inscreva-se no canal de notícias tributárias do JOTA no WhatsApp e fique por dentro das principais discussões!
Não se trata de rejeitar a tecnologia, mas de moldá-la constitucionalmente. A eficiência arrecadatória não deve ser buscada à revelia da legalidade, da proporcionalidade e dos direitos fundamentais. A meta-auditoria, conceito que propõe a fiscalização das próprias estruturas de governança dos algoritmos, deve ganhar centralidade nas estratégias de compliance público[9].
A Constituição Federal deve ser o código-fonte da inteligência fiscal. Isso significa submeter algoritmos à lógica republicana, aos controles democráticos e ao Estado de Direito. Nenhum sistema automatizado pode ter mais autoridade que a Constituição Federal. Para isso, é necessário garantir instâncias de revisão, critérios objetivos e auditáveis e canais acessíveis de impugnação por parte dos contribuintes.
O uso da inteligência artificial pela Administração Tributária não é apenas uma agenda de inovação, mas uma pauta de cidadania. A fiscalização tributária já é amplamente digital, por isso, o desafio não é impedir o avanço tecnológico, mas assegurar que ele se desenvolva sob as garantias do Estado de Direito.
[1] BRASIL. Constituição da República Federativa do Brasil de 1988. Disponível em: https://www.planalto.gov.br/ccivil_03/constituicao/constituicao.htm. Acesso em: 2 jun. 2025.
[2] CITRON, Danielle Keats. Technological Due Process. Washington University Law Review, v. 85, p. 1249–1314, 2008.
[3] PASETTI, Marcelo; CALIENDO, Paulo. Avaliação de impacto algorítmico no desenvolvimento de sistemas autônomos inteligentes. JOTA, São Paulo, 8 fev. 2023. Disponível em: https://www.jota.info/opiniao-e-analise/artigos/avaliacao-de-impacto-regulatorio-no-desenvolvimento-de-sistemas-autonomos-inteligentes-08022023. Acesso em: 18 set. 2023.
[4] BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em: 2 jun. 2025.
[5] BRASIL. Projeto de Lei Complementar nº 2338, de 2023. Disponível em: https://www.camara.leg.br/proposicoesWeb/fichadetramitacao?idProposicao=2397301. Acesso em: 2 jun. 2025.
[6] ALBUQUERQUE, Adriana Reis de. Poder artificial de tributar? Limites e requisitos à utilização (adequada) da inteligência artificial pela administração tributária. Londrina: Editora Thoth, 2023.
[7] BIFANO, Elidie Palma; BRANDÃO NETO, João Batista. O legítimo direito do lançamento está ameaçado pela ditadura do sistema? Consultor Jurídico, São Paulo, 27 jul. 2022. Disponível em: https://www.conjur.com.br/2022-jul-27/consultor-tributario-legitimo-direito-lancamento-ditadura-sistema/. Acesso em: 23 jun. 2025.
[8] GOOSSENS, Jurgen; KEYMOLEN, Esther; STANOJEVIĆ, Antonia (org.). Public governance and emerging technologies: values, trust, and regulatory compliance. Cham: Springer, 2025.
[9] GOVERNMENT OF CANADA. Algorithmic Impact Assessment Tool. Ottawa: Government of Canada, 2024. Disponível em: https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html. Acesso em: 17 jul. 2022.