2ºPost - Beatriz Santos Rosa | Nº140123088 - O TJUE e as Decisões Automatizadas

Comentário de Jurisprudência: A Máquina no Banco dos Réus – O TJUE e as Decisões Automatizadas (Acórdão C-634/21 OQ v. Land Hessen)

No nosso laboratório de análise da realidade jurídica, temos vindo a debater a transição para a «Administração 3.0» e o modo como o Direito Administrativo enquadra o uso de algoritmos. Contudo, quando a eficiência tecnológica choca com os direitos fundamentais dos cidadãos, a última palavra pertence aos tribunais. Hoje, focamos a nossa atenção na jurisprudência do Tribunal de Justiça da União Europeia (TJUE) e na forma como este tem traçado os limites da proficiência automatizada através do Regulamento Geral sobre a Proteção de Dados (RGPD).

A Barreira do Artigo 22.º do RGPD

No centro do debate sobre o uso de Inteligência Artificial (IA) pelo Estado está o artigo 22.º do RGPD, que consagra o direito do titular dos dados a não ser sujeito a decisões baseadas exclusivamente no tratamento automatizado. Para que esta proibição se aplique, a doutrina e a jurisprudência exigem a verificação de três condições cumulativas: 1) a existência de uma decisão proferida pelo responsável pelo tratamento; 2) que essa decisão seja automatizada; e 3) que produza efeitos na esfera jurídica do indivíduo ou o afete significativamente.

O grande problema prático que se coloca à Administração Pública (e em particular à Administração Tributária, no uso de Sistemas de Gestão de Risco para selecionar contribuintes para auditoria) é o preenchimento do segundo requisito: o que significa, afinal, uma decisão ser "automatizada"?

O Acórdão C-634/21 OQ v. Land Hessen e a "Ficção do Humano"

É aqui que entra a decisão paradigmática do TJUE no caso C-634/21 OQ v. Land Hessen (a par da jurisprudência firmada no caso C-202/22 Dun & Bradstreet).

Muitas vezes, a Administração defende que os seus sistemas não violam o RGPD porque existe um "humano no circuito" (human in the loop). Ou seja, a máquina calcula o risco ou propõe a decisão, mas é um funcionário humano que assina o ato final. O TJUE, contudo, desferiu um golpe fatal nesta ilusão de controlo. O Tribunal clarificou que uma decisão será considerada "automatizada" não apenas quando não há qualquer intervenção humana, mas também quando o humano que toma a decisão final não realiza uma "intervenção significativa".

Se a intervenção do funcionário for meramente perfunctória — um mero exercício de "pôr o visto na quadrícula" (tick-box exercise) ditado pela máquina —, a decisão continua a ser juridicamente classificada como automatizada e, portanto, sujeita ao escrutínio e proibição do artigo 22.º do RGPD. O TJUE exige que a supervisão humana não seja uma ficção burocrática; o decisor humano tem de ter a capacidade e a vontade de contrariar a sugestão do algoritmo.

O Impacto no Sistema Português e na Administração Pública

Transpondo esta jurisprudência para a dogmática do Direito Administrativo português, as conclusões do TJUE cruzam-se na perfeição com os ensinamentos sobre a atuação da nossa Administração Pública perante os particulares.

Em primeiro lugar, a nossa Lei Fundamental é o grande escudo contra a máquina. A Constituição da República Portuguesa, no seu artigo 268.º, n.º 4, adotou uma noção material de ato administrativo, garantindo a tutela jurisdicional e a impugnação de quaisquer atos lesivos "independentemente da sua forma". Quer a decisão seja tomada por um funcionário com uma caneta, quer seja o "output" de uma rede neuronal, ela é um autêntico ato administrativo e é plenamente sindicável nos tribunais portugueses.

Em segundo lugar, a decisão do TJUE reforça a obrigatoriedade da intervenção humana no exercício dos poderes discricionários. Como sublinha o Professor Vasco Pereira da Silva, a inteligência artificial pode recolher factos, tratar a informação e até reconhecer alternativas, mas a escolha final da alternativa a aplicar tem obrigatoriamente de ser feita por uma pessoa. Se o funcionário se limitar a assinar a escolha do algoritmo, estamos perante uma escolha alucinada que subverte a competência administrativa, violando a lei e o interesse público.

Este requisito europeu de supervisão humana significativa vem colmatar um grave problema interno: o défice regulamentar em Portugal. Enquanto a Alemanha reviu o seu Código do Procedimento Administrativo (CPA) 20 vezes para acomodar a IA, o legislador português limitou-se ao inócuo artigo 14.º sobre administração eletrónica, que a doutrina acusa de servir apenas para "comprar computadores", sem ditar verdadeiras regras específicas de controlo algorítmico.

Por fim, proibir decisões integralmente automatizadas e opacas (o risco da "Caixa Negra") é uma exigência do nosso dever de fundamentação (artigos 152.º e 153.º do CPA). Se a Administração não consegue explicar o iter cognoscitivo (o raciocínio) do algoritmo, o ato é ilegal por vício de forma.

Os Limites da Proficiência Automatizada no Direito Administrativo

Esta jurisprudência europeia cruza-se na perfeição com os ensinamentos basilares do Direito Administrativo moderno. Como foi discutido nas aulas teóricas, no exercício de poderes discricionários, a IA pode processar os dados e até apresentar alternativas, mas a escolha da alternativa a aplicar tem obrigatoriamente de ser feita por uma pessoa. Delegar a escolha valorativa numa máquina destrói o dever de fundamentação e subverte a competência administrativa. Se o humano não faz uma escolha real e ponderada, recaímos em decisões "alucinadas" e violadoras do interesse público.

Além disso, a jurisprudência do TJUE obriga-nos a rejeitar os resquícios do trauma autoritário que via o particular como um mero "administrado" ou objeto do poder. No moderno Estado de Direito, o cidadão é um sujeito pleno de direitos. Se a máquina toma a decisão e o funcionário se limita a assinar por baixo sem escrutínio, a Administração está a esmagar o cidadão numa "caixa negra", impossibilitando-o de compreender o iter cognoscitivo (o raciocínio) do ato lesivo.

As exigências do TJUE

A exigência do TJUE no caso Land Hessen é, no fundo, a recusa do regresso ao "trauma autoritário" do passado. No antigo contencioso objetivo, o particular era visto como um mero objeto do poder, o "administrado". Hoje, operou-se uma verdadeira "viragem copernicana", em que o cidadão é o centro do Direito Administrativo e um sujeito pleno de direitos.

O Estado não é o Facebook e não pode adotar o lema "move fast and break things" com a vida dos cidadãos. A Administração Pública portuguesa atrai a sua autoridade da Lei e, para que o uso da inteligência artificial seja lícito, não basta um carimbo humano no final de um processo automatizado; exige-se uma supervisão real e uma transparência absoluta, garantindo que o cidadão nunca volte a ser esmagado pelo leviatã digital.

 

Bibliografia

  • Acórdão C-634/21: OQ v. Land Hessen (ECLI:EU:C:2023:957).
  • Acórdão C-202/22: CK v. Dun & Bradstreet Austria GmbH e Magistrat der Stadt Wien (ECLI:EU:C:2025:117).
  • Binns, Reuben (2022). Human Judgment in algorithmic loops: Individual justice and automated decision-making, 16 Regulation & Governance 197-211.
  • Yeung, Karen & Harkens, Adam (2023). How Do ‘Technical’ Design-Choices Made When Building Algorithmic Decision-making Tools for Criminal Justice Authorities Create Constitutional Dangers? Part II, Public Law 448-472.
  • Kuźniacki, B., Almada, M., et al. (2022). Towards eXplainable Artificial Intelligence (XAI) in Tax Law: The Need for a Minimum Legal Standard, 14(4) World Tax Journal 573-616.
  • Daly, Stephen (2024). Artificial Intelligence, the Rule of Law and Public Administration: The Case of Taxation, 83(3) Cambridge Law Journal 437-464.

Comentários