Em Março de 2025, um advogado norte-americano foi sancionado por um tribunal federal depois de ter apresentado peças processuais com jurisprudência fabricada por um modelo de linguagem. O caso fez manchetes. Em Portugal, passámos ao lado — mas o problema chegou entretanto.

Nos últimos dezoito meses, o uso de ferramentas como o ChatGPT, o Claude ou o Gemini na redacção de textos jurídicos tornou-se rotineiro — em escritórios de advocacia, em faculdades de direito e, segundo relatos crescentes, nos próprios tribunais. A questão já não é se a IA está a ser usada. É: como detectar, quando importa, que um texto jurídico foi gerado ou significativamente assistido por um modelo de linguagem?

O Problema Constitucional

O Art. 205.º da Constituição da República Portuguesa é claro: as decisões dos tribunais são fundamentadas. Esta exigência não é meramente formal — é a garantia de que cada decisão reflecte o raciocínio de um magistrado humano, responsável perante a ordem jurídica.

«As decisões dos tribunais que não sejam de mero expediente são fundamentadas na forma prevista na lei.»

Art. 205.º, n.º 1, Constituição da República Portuguesa

A questão que se coloca não é se a IA pode auxiliar na pesquisa ou na organização de argumentos — o direito sempre admitiu ferramentas de suporte. A questão é se uma decisão judicial pode ser parcial ou totalmente redigida por um sistema de IA sem que isso seja declarado, sem supervisão adequada e sem que as partes tenham conhecimento.

A resposta, à luz do direito vigente, é claramente negativa. Mas a prática está a correr à frente da lei.

O Que Diz o EU AI Act

O Regulamento (UE) 2024/1689, em vigor desde Agosto de 2024, classifica os sistemas de IA utilizados na administração da justiça como sistemas de IA de alto risco. Isto implica obrigações concretas: transparência, supervisão humana, avaliação de conformidade e, em determinados casos, registo num repositório europeu.

Portugal, como todos os Estados-membros, está vinculado a estas obrigações. O problema é que a aplicação prática é ainda incipiente. Não existe, no sistema judicial português, qualquer mecanismo formal de declaração do uso de IA na redacção de decisões.

Os 6 Indicadores que Revelam a IA

A análise forense linguística permite identificar padrões estatísticos que distinguem a escrita humana dos modelos de linguagem. No contexto jurídico português, estes padrões são particularmente relevantes porque o estilo dos tribunais é altamente específico — cada relator, cada tribunal, tem um idioma próprio que os modelos de IA ainda não reproduzem com fidelidade.

01
Perplexidade Textual
A IA tende a produzir texto estatisticamente previsível. Textos humanos têm maior variação e imprevisibilidade lexical.
02
Variabilidade Rítmica
Humanos alternam entre frases curtas e longas de forma orgânica. A IA tende a homogeneizar o comprimento dos parágrafos.
03
Coesão Artificial
Modelos de linguagem produzem transições excessivamente fluidas. A escrita humana tem rupturas, hesitações e saltos lógicos naturais.
04
Uniformidade Sintáctica
A IA tende a repetir estruturas frásicas. Magistrados experientes variam a sintaxe de forma característica e pessoal.
05
Riqueza Lexical
O vocabulário jurídico humano é idiossincrático. A IA usa terminologia correcta mas estatisticamente genérica.
06
Marcadores Formulaicos
Expressões como "importa referir", "cumpre salientar" ou "de todo o modo" surgem com frequência estatisticamente anormal em textos de IA.

O Que Está Realmente em Risco

Para os Magistrados

O uso não declarado de IA na redacção de decisões cria responsabilidade disciplinar e eventualmente penal. Mas o risco maior é outro: a erosão silenciosa da autoridade das decisões judiciais. Uma sentença cuja fundamentação foi gerada por um modelo estatístico não é, em sentido estrito, a expressão do convencimento de um juiz — é a expressão de um padrão probabilístico.

Para os Advogados

A utilização de IA na redacção de peças processuais sem declaração às partes contrárias e ao tribunal levanta questões deontológicas sérias. O dever de lealdade processual exige que o advogado assuma a responsabilidade pelo conteúdo das suas peças. A IA não assina. O advogado sim.

Para as Faculdades de Direito

A integridade académica está sob pressão como nunca. Dissertações de mestrado, teses de doutoramento e trabalhos finais de licenciatura são submetidos em número crescente com assistência não declarada de IA. Ferramentas genéricas como o Turnitin, desenvolvidas para detectar plágio textual em inglês, falham consistentemente no contexto do português jurídico.

O Caminho a Seguir

A solução não é proibir a IA — seria ineficaz e contraproducente. A IA pode ser uma ferramenta poderosa de apoio à investigação jurídica, à organização de argumentos e à pesquisa de jurisprudência. O problema não é o uso. É o uso não declarado, não supervisionado e não verificável.

O que o sistema jurídico português precisa é de ferramentas de verificação calibradas para o contexto jurídico nacional. Ferramentas que conheçam o estilo do STJ, do TRL, do STA. Que reconheçam os padrões dos relatores. Que funcionem em português europeu, não em inglês traduzido.

Essa é a razão de ser do LexVeritas — o primeiro sistema de análise forense de IA construído especificamente para o sistema jurídico português. Não como instrumento de acusação, mas como ferramenta de verificação e transparência ao serviço de quem leva o direito a sério.

LexVeritas
Analise uma decisão gratuitamente

5 análises por mês · Sem cartão de crédito · Dados na União Europeia

Começar Gratuitamente →