Comentário de Jurisprudência: A Máquina no Banco dos Réus – O TJUE e as Decisões Automatizadas (Acórdão C-634/21 OQ v. Land Hessen)
No
nosso laboratório de análise da realidade jurídica, temos vindo a debater a
transição para a «Administração 3.0» e o modo como o Direito Administrativo
enquadra o uso de algoritmos. Contudo, quando a eficiência tecnológica choca
com os direitos fundamentais dos cidadãos, a última palavra pertence aos
tribunais. Hoje, focamos a nossa atenção na jurisprudência do Tribunal de
Justiça da União Europeia (TJUE) e na forma como este tem traçado os limites da
proficiência automatizada através do Regulamento Geral sobre a Proteção de
Dados (RGPD).
A
Barreira do Artigo 22.º do RGPD
No
centro do debate sobre o uso de Inteligência Artificial (IA) pelo Estado está o
artigo 22.º do RGPD, que consagra o direito do titular dos dados a não ser
sujeito a decisões baseadas exclusivamente no tratamento automatizado. Para que
esta proibição se aplique, a doutrina e a jurisprudência exigem a verificação
de três condições cumulativas: 1) a existência de uma decisão proferida pelo
responsável pelo tratamento; 2) que essa decisão seja automatizada; e 3) que
produza efeitos na esfera jurídica do indivíduo ou o afete significativamente.
O
grande problema prático que se coloca à Administração Pública (e em particular
à Administração Tributária, no uso de Sistemas de Gestão de Risco para
selecionar contribuintes para auditoria) é o preenchimento do segundo
requisito: o que significa, afinal, uma decisão ser "automatizada"?
O
Acórdão C-634/21 OQ v. Land Hessen e a "Ficção do Humano"
É aqui
que entra a decisão paradigmática do TJUE no caso C-634/21 OQ v. Land Hessen
(a par da jurisprudência firmada no caso C-202/22 Dun & Bradstreet).
Muitas
vezes, a Administração defende que os seus sistemas não violam o RGPD porque
existe um "humano no circuito" (human in the loop). Ou seja, a
máquina calcula o risco ou propõe a decisão, mas é um funcionário humano que
assina o ato final. O TJUE, contudo, desferiu um golpe fatal nesta ilusão de
controlo. O Tribunal clarificou que uma decisão será considerada
"automatizada" não apenas quando não há qualquer intervenção humana,
mas também quando o humano que toma a decisão final não realiza uma
"intervenção significativa".
Se a
intervenção do funcionário for meramente perfunctória — um mero exercício de
"pôr o visto na quadrícula" (tick-box exercise) ditado pela
máquina —, a decisão continua a ser juridicamente classificada como
automatizada e, portanto, sujeita ao escrutínio e proibição do artigo 22.º do
RGPD. O TJUE exige que a supervisão humana não seja uma ficção burocrática; o
decisor humano tem de ter a capacidade e a vontade de contrariar a sugestão do
algoritmo.
O
Impacto no Sistema Português e na Administração Pública
Transpondo
esta jurisprudência para a dogmática do Direito Administrativo português, as
conclusões do TJUE cruzam-se na perfeição com os ensinamentos sobre a atuação
da nossa Administração Pública perante os particulares.
Em
primeiro lugar, a nossa Lei Fundamental é o grande escudo contra a máquina. A
Constituição da República Portuguesa, no seu artigo 268.º, n.º 4, adotou uma
noção material de ato administrativo, garantindo a tutela jurisdicional e a
impugnação de quaisquer atos lesivos "independentemente da sua
forma". Quer a decisão seja tomada por um funcionário com uma caneta, quer
seja o "output" de uma rede neuronal, ela é um autêntico ato
administrativo e é plenamente sindicável nos tribunais portugueses.
Em
segundo lugar, a decisão do TJUE reforça a obrigatoriedade da intervenção
humana no exercício dos poderes discricionários. Como sublinha o Professor
Vasco Pereira da Silva, a inteligência artificial pode recolher factos, tratar
a informação e até reconhecer alternativas, mas a escolha final da alternativa
a aplicar tem obrigatoriamente de ser feita por uma pessoa. Se o funcionário se
limitar a assinar a escolha do algoritmo, estamos perante uma escolha alucinada
que subverte a competência administrativa, violando a lei e o interesse
público.
Este
requisito europeu de supervisão humana significativa vem colmatar um grave
problema interno: o défice regulamentar em Portugal. Enquanto a Alemanha reviu
o seu Código do Procedimento Administrativo (CPA) 20 vezes para acomodar a IA,
o legislador português limitou-se ao inócuo artigo 14.º sobre administração
eletrónica, que a doutrina acusa de servir apenas para "comprar
computadores", sem ditar verdadeiras regras específicas de controlo
algorítmico.
Por
fim, proibir decisões integralmente automatizadas e opacas (o risco da
"Caixa Negra") é uma exigência do nosso dever de fundamentação
(artigos 152.º e 153.º do CPA). Se a Administração não consegue explicar o iter
cognoscitivo (o raciocínio) do algoritmo, o ato é ilegal por vício de
forma.
Os
Limites da Proficiência Automatizada no Direito Administrativo
Esta
jurisprudência europeia cruza-se na perfeição com os ensinamentos basilares do
Direito Administrativo moderno. Como foi discutido nas aulas teóricas, no
exercício de poderes discricionários, a IA pode processar os dados e até
apresentar alternativas, mas a escolha da alternativa a aplicar tem
obrigatoriamente de ser feita por uma pessoa. Delegar a escolha valorativa numa
máquina destrói o dever de fundamentação e subverte a competência
administrativa. Se o humano não faz uma escolha real e ponderada, recaímos em
decisões "alucinadas" e violadoras do interesse público.
Além
disso, a jurisprudência do TJUE obriga-nos a rejeitar os resquícios do trauma
autoritário que via o particular como um mero "administrado" ou
objeto do poder. No moderno Estado de Direito, o cidadão é um sujeito pleno de
direitos. Se a máquina toma a decisão e o funcionário se limita a assinar por
baixo sem escrutínio, a Administração está a esmagar o cidadão numa "caixa
negra", impossibilitando-o de compreender o iter cognoscitivo (o
raciocínio) do ato lesivo.
As
exigências do TJUE
A
exigência do TJUE no caso Land Hessen é, no fundo, a recusa do regresso
ao "trauma autoritário" do passado. No antigo contencioso objetivo, o
particular era visto como um mero objeto do poder, o "administrado".
Hoje, operou-se uma verdadeira "viragem copernicana", em que o
cidadão é o centro do Direito Administrativo e um sujeito pleno de direitos.
O
Estado não é o Facebook e não pode adotar o lema "move fast and break
things" com a vida dos cidadãos. A Administração Pública portuguesa
atrai a sua autoridade da Lei e, para que o uso da inteligência artificial seja
lícito, não basta um carimbo humano no final de um processo automatizado;
exige-se uma supervisão real e uma transparência absoluta, garantindo que o
cidadão nunca volte a ser esmagado pelo leviatã digital.
Bibliografia
- Acórdão C-634/21: OQ v. Land Hessen (ECLI:EU:C:2023:957).
- Acórdão C-202/22: CK
v. Dun & Bradstreet Austria GmbH e Magistrat der Stadt Wien
(ECLI:EU:C:2025:117).
- Binns,
Reuben (2022). Human
Judgment in algorithmic loops: Individual justice and automated
decision-making, 16 Regulation & Governance 197-211.
- Yeung,
Karen & Harkens, Adam (2023). How Do ‘Technical’ Design-Choices Made When
Building Algorithmic Decision-making Tools for Criminal Justice
Authorities Create Constitutional Dangers? Part
II, Public Law 448-472.
- Kuźniacki, B., Almada, M., et al. (2022). Towards eXplainable
Artificial Intelligence (XAI) in Tax Law: The Need for a Minimum
Legal Standard, 14(4) World Tax Journal 573-616.
- Daly,
Stephen (2024). Artificial Intelligence,
the Rule of Law and Public Administration: The Case of Taxation, 83(3)
Cambridge Law Journal 437-464.
Comentários
Enviar um comentário