Laboratório
de Análise da Realidade Jurídica: A Inteligência Artificial, o Fisco e a Ilusão
da Eficiência
Vivemos
numa era em que as sociedades correm o risco de serem "submersas"
pela inteligência artificial e por uma proliferação infinita de conteúdos
gerados por algoritmos. A digitalização já não é uma promessa de ficção
científica; é a realidade do nosso quotidiano. Quando recebemos a fatura da
eletricidade ou paramos o carro perante um semáforo vermelho, estamos a
interagir diretamente com decisões automatizadas.
No
estudo do Direito Administrativo, a Administração Tributária sempre se destacou
como a demonstração mais pujante do poder de autoridade do Estado, onde impera
a lógica clássica do solve et repete (paga primeiro e protesta depois).
Contudo, a nossa realidade legal está a sofrer uma mutação radical com a
transição para a chamada «Administração Tributária 3.0», substituindo a
verificação humana e o cumprimento voluntário por uma automação contínua baseada
na Inteligência Artificial (IA).
O
Enquadramento Dogmático: Como o Direito Administrativo olha para a Máquina?
A
Administração Tributária é a manifestação mais pujante do poder de autoridade
do Estado, atuando no âmbito de relações de supremacia pública. O ato
tributário (a liquidação de impostos) é o exemplo paradigmático do poder de
decisão unilateral, em que a AP define o direito aplicável ao caso concreto de
forma obrigatória, sem necessidade de acordo do particular. É neste domínio que
vigora historicamente a lógica do solve et repete (paga primeiro e
protesta depois), uma manifestação máxima da plenitudo potestatis e do
privilégio de execução prévia justificada pela necessidade de arrecadação de
receitas.
Longe
de atuar num vazio jurídico, a doutrina moderna demonstra que a máquina está
perfeitamente enquadrada nas categorias clássicas da disciplina administrativa:
as instruções computacionais que ditam como a máquina deve calcular os consumos
ou a temporização com que o semáforo muda de cor consubstanciam normas gerais e
abstratas que condicionam o funcionamento da Administração. Logo, o algoritmo
é, materialmente, um regulamento administrativo; o resultado final gerado pela
máquina para o caso concreto (a fatura específica ou o sinal vermelho) é uma
decisão unilateral e imperativa, ou seja, um autêntico ato administrativo (o “output”);
e a atividade do funcionário para alimentar a máquina com dados corresponde aos
trâmites do procedimento administrativo preparatório da decisão.
No
passado, perante a "Administração Agressiva", o particular era visto
como um mero objeto do poder, o chamado "administrado" (uma expressão
repudiada pela doutrina moderna por refletir um trauma autoritário
inadmissível). Hoje, o particular é um sujeito de direitos pleno. A grande
garantia contra as decisões automatizadas reside no artigo 268.º, n.º 4 da
Constituição, que adota uma noção material de ato administrativo, garantindo a
tutela jurisdicional efetiva e a impugnação de quaisquer atos lesivos "independentemente
da sua forma". Assim, o output de uma máquina é plenamente sindicável nos
tribunais.
O
Risco da Administração Tributária 3.0
A
nível global, o uso mais comum da IA e do Machine Learning pelos fiscos
dá-se nos Sistemas de Gestão de Risco (RMS), concebidos para definir perfis e
selecionar alvos para auditorias. O sistema CONNECT do fisco britânico
(HMRC), por exemplo, detém cerca de 55 mil milhões de itens de dados de
contribuintes, cruzando comportamentos de forma infinitamente mais rápida do
que qualquer humano.
No
entanto, transpor a máquina para o poder coercivo do Estado levanta desafios
éticos e jurídicos colossais:
O
Dever de Fundamentação (O Risco da "Caixa Negra"): a uso de
algoritmos opacos (como as Deep Neural Networks) gera o risco da
"Black Box". No Direito Administrativo, a AP tem o dever legal de
fundamentar os seus atos, esclarecendo concretamente a motivação para permitir
a reconstituição do iter cognoscitivo (o raciocínio) que levou à adoção
daquela decisão. Se a Administração não for capaz de explicar quais as normas
que o algoritmo aplicou para chegar a um resultado, o ato é ilegal por vício de
forma (falta de fundamentação), devendo o algoritmo ser anulado, tal como já
aconteceu em jurisprudência europeia recente.
O
Princípio da Igualdade (O Risco de Discriminação): o escândalo do Toeslagenaffaire
(Países Baixos) ilustra os perigos do uso descontrolado da IA na deteção de
fraudes fiscais. O princípio da igualdade impõe que não haja discriminações sem
justificação material bastante, proibindo que alguém seja prejudicado em razão
da sua origem ou território. O algoritmo que definia riscos com base na
nacionalidade (dupla cidadania) praticou um ato ilícito de discriminação
automatizada, violando grosseiramente o artigo 266.º, n.º 2 da Constituição e o
Código do Procedimento Administrativo.
O
Princípio da Boa-Fé e a Tutela da Confiança (O Risco da "Alucinação"):
os sistemas de IA baseados em modelos de linguagem estão sujeitos a
"alucinações" (respostas e factos completamente inventados). Quando a
Autoridade Tributária fornece aconselhamento através de um chatbot
oficial e este alucina um conselho errado, entra em jogo o Princípio da Boa-Fé.
Este princípio exige a tutela da confiança legítima do particular. Se o
cidadão, de boa-fé, acreditou e adequou a sua conduta a uma informação oficial
da AP, o princípio da segurança jurídica dita que o ónus do erro tecnológico
não deve recair sobre ele de forma desproporcionada.
O
Princípio da Legalidade: a IA só pode ser utilizada se a lei o permitir e nos
termos por ela definidos. O Estado de Direito exige que o poder público atue
estritamente sob o bloco de legalidade. É por isso que, perante o atual
"défice regulamentar" nacional (onde o artigo 14.º do CPA sobre
administração eletrónica é tido como genérico e inócuo), se torna urgente criar
normas específicas que regulem e limitem o uso da IA nos procedimentos
administrativos, garantindo sempre a intervenção e a supervisão humana final
nas escolhas discricionárias.
O
Estado não é o Facebook
Perante
a tentação da inovação a todo o custo, o limite tem de ser traçado. Como alerta
a doutrina, o Estado não é o Facebook. Enquanto uma empresa privada pode
dar-se ao luxo de adotar o lema "move fast and break things"
(mova-se rápido e parta coisas) para ganhar mercado, a Administração Pública
retira a sua autoridade exclusivamente da Lei e do Estado de Direito. O Estado
não pode "experimentar" abusivamente com a vida e o património dos
cidadãos.
Para
integrar legitimamente o Direito Fiscal, a IA tem de ser enquadrada num Estado
de Direito Material, requerendo supervisão humana, transparência absoluta
através de uma IA Explicável (XAI), e o controlo jurisdicional do poder
coercivo. O facto de a máquina liquidar um imposto em milissegundos não anula a
subordinação intransigente da Administração à defesa das garantias dos
particulares.
Bibliografia:
Kuźniacki, B., Almada, M., et al., Towards eXplainable Artificial Intelligence (XAI)
in Tax Law: The Need for a Minimum Legal Standard (2022).
Daly, Stephen, Artificial Intelligence, the Rule of Law and
Public Administration: The Case of Taxation (2024).
Narayanan, A. & Kapoor, S., AI Snake Oil: What Artificial Intelligence Can
Do, What It Can’t, and How to Tell the Difference (2024).
Vasco
Pereira da Silva, Em Busca do Acto Administrativo Perdido
(1996) e Para um contencioso administrativo dos particulares (1988).
Diogo
Freitas do Amaral, Curso de Direito Administrativo.
Comentários
Enviar um comentário