1ºPost - Beatriz Santos Rosa | Nº140123088 - A Administração Tributária

 

Laboratório de Análise da Realidade Jurídica: A Inteligência Artificial, o Fisco e a Ilusão da Eficiência

Vivemos numa era em que as sociedades correm o risco de serem "submersas" pela inteligência artificial e por uma proliferação infinita de conteúdos gerados por algoritmos. A digitalização já não é uma promessa de ficção científica; é a realidade do nosso quotidiano. Quando recebemos a fatura da eletricidade ou paramos o carro perante um semáforo vermelho, estamos a interagir diretamente com decisões automatizadas.

No estudo do Direito Administrativo, a Administração Tributária sempre se destacou como a demonstração mais pujante do poder de autoridade do Estado, onde impera a lógica clássica do solve et repete (paga primeiro e protesta depois). Contudo, a nossa realidade legal está a sofrer uma mutação radical com a transição para a chamada «Administração Tributária 3.0», substituindo a verificação humana e o cumprimento voluntário por uma automação contínua baseada na Inteligência Artificial (IA).

 

O Enquadramento Dogmático: Como o Direito Administrativo olha para a Máquina?

A Administração Tributária é a manifestação mais pujante do poder de autoridade do Estado, atuando no âmbito de relações de supremacia pública. O ato tributário (a liquidação de impostos) é o exemplo paradigmático do poder de decisão unilateral, em que a AP define o direito aplicável ao caso concreto de forma obrigatória, sem necessidade de acordo do particular. É neste domínio que vigora historicamente a lógica do solve et repete (paga primeiro e protesta depois), uma manifestação máxima da plenitudo potestatis e do privilégio de execução prévia justificada pela necessidade de arrecadação de receitas.

Longe de atuar num vazio jurídico, a doutrina moderna demonstra que a máquina está perfeitamente enquadrada nas categorias clássicas da disciplina administrativa: as instruções computacionais que ditam como a máquina deve calcular os consumos ou a temporização com que o semáforo muda de cor consubstanciam normas gerais e abstratas que condicionam o funcionamento da Administração. Logo, o algoritmo é, materialmente, um regulamento administrativo; o resultado final gerado pela máquina para o caso concreto (a fatura específica ou o sinal vermelho) é uma decisão unilateral e imperativa, ou seja, um autêntico ato administrativo (o “output”); e a atividade do funcionário para alimentar a máquina com dados corresponde aos trâmites do procedimento administrativo preparatório da decisão.

No passado, perante a "Administração Agressiva", o particular era visto como um mero objeto do poder, o chamado "administrado" (uma expressão repudiada pela doutrina moderna por refletir um trauma autoritário inadmissível). Hoje, o particular é um sujeito de direitos pleno. A grande garantia contra as decisões automatizadas reside no artigo 268.º, n.º 4 da Constituição, que adota uma noção material de ato administrativo, garantindo a tutela jurisdicional efetiva e a impugnação de quaisquer atos lesivos "independentemente da sua forma". Assim, o output de uma máquina é plenamente sindicável nos tribunais.

 

O Risco da Administração Tributária 3.0

A nível global, o uso mais comum da IA e do Machine Learning pelos fiscos dá-se nos Sistemas de Gestão de Risco (RMS), concebidos para definir perfis e selecionar alvos para auditorias. O sistema CONNECT do fisco britânico (HMRC), por exemplo, detém cerca de 55 mil milhões de itens de dados de contribuintes, cruzando comportamentos de forma infinitamente mais rápida do que qualquer humano.

No entanto, transpor a máquina para o poder coercivo do Estado levanta desafios éticos e jurídicos colossais:

O Dever de Fundamentação (O Risco da "Caixa Negra"): a uso de algoritmos opacos (como as Deep Neural Networks) gera o risco da "Black Box". No Direito Administrativo, a AP tem o dever legal de fundamentar os seus atos, esclarecendo concretamente a motivação para permitir a reconstituição do iter cognoscitivo (o raciocínio) que levou à adoção daquela decisão. Se a Administração não for capaz de explicar quais as normas que o algoritmo aplicou para chegar a um resultado, o ato é ilegal por vício de forma (falta de fundamentação), devendo o algoritmo ser anulado, tal como já aconteceu em jurisprudência europeia recente.

O Princípio da Igualdade (O Risco de Discriminação): o escândalo do Toeslagenaffaire (Países Baixos) ilustra os perigos do uso descontrolado da IA na deteção de fraudes fiscais. O princípio da igualdade impõe que não haja discriminações sem justificação material bastante, proibindo que alguém seja prejudicado em razão da sua origem ou território. O algoritmo que definia riscos com base na nacionalidade (dupla cidadania) praticou um ato ilícito de discriminação automatizada, violando grosseiramente o artigo 266.º, n.º 2 da Constituição e o Código do Procedimento Administrativo.

O Princípio da Boa-Fé e a Tutela da Confiança (O Risco da "Alucinação"): os sistemas de IA baseados em modelos de linguagem estão sujeitos a "alucinações" (respostas e factos completamente inventados). Quando a Autoridade Tributária fornece aconselhamento através de um chatbot oficial e este alucina um conselho errado, entra em jogo o Princípio da Boa-Fé. Este princípio exige a tutela da confiança legítima do particular. Se o cidadão, de boa-fé, acreditou e adequou a sua conduta a uma informação oficial da AP, o princípio da segurança jurídica dita que o ónus do erro tecnológico não deve recair sobre ele de forma desproporcionada.

O Princípio da Legalidade: a IA só pode ser utilizada se a lei o permitir e nos termos por ela definidos. O Estado de Direito exige que o poder público atue estritamente sob o bloco de legalidade. É por isso que, perante o atual "défice regulamentar" nacional (onde o artigo 14.º do CPA sobre administração eletrónica é tido como genérico e inócuo), se torna urgente criar normas específicas que regulem e limitem o uso da IA nos procedimentos administrativos, garantindo sempre a intervenção e a supervisão humana final nas escolhas discricionárias.

 

O Estado não é o Facebook

Perante a tentação da inovação a todo o custo, o limite tem de ser traçado. Como alerta a doutrina, o Estado não é o Facebook. Enquanto uma empresa privada pode dar-se ao luxo de adotar o lema "move fast and break things" (mova-se rápido e parta coisas) para ganhar mercado, a Administração Pública retira a sua autoridade exclusivamente da Lei e do Estado de Direito. O Estado não pode "experimentar" abusivamente com a vida e o património dos cidadãos.

Para integrar legitimamente o Direito Fiscal, a IA tem de ser enquadrada num Estado de Direito Material, requerendo supervisão humana, transparência absoluta através de uma IA Explicável (XAI), e o controlo jurisdicional do poder coercivo. O facto de a máquina liquidar um imposto em milissegundos não anula a subordinação intransigente da Administração à defesa das garantias dos particulares.

 

Bibliografia:

Kuźniacki, B., Almada, M., et al., Towards eXplainable Artificial Intelligence (XAI) in Tax Law: The Need for a Minimum Legal Standard (2022).

Daly, Stephen, Artificial Intelligence, the Rule of Law and Public Administration: The Case of Taxation (2024).

Narayanan, A. & Kapoor, S., AI Snake Oil: What Artificial Intelligence Can Do, What It Can’t, and How to Tell the Difference (2024).

Vasco Pereira da Silva, Em Busca do Acto Administrativo Perdido (1996) e Para um contencioso administrativo dos particulares (1988).

Diogo Freitas do Amaral, Curso de Direito Administrativo.

Comentários