Em Março de 2025, um advogado norte-americano foi sancionado por um tribunal federal depois de ter apresentado peças processuais com jurisprudência fabricada por um modelo de linguagem. O caso fez manchetes. Em Portugal, passámos ao lado — mas o problema chegou entretanto.
Nos últimos dezoito meses, o uso de ferramentas como o ChatGPT, o Claude ou o Gemini na redacção de textos jurídicos tornou-se rotineiro — em escritórios de advocacia, em faculdades de direito e, segundo relatos crescentes, nos próprios tribunais. A questão já não é se a IA está a ser usada. É: como detectar, quando importa, que um texto jurídico foi gerado ou significativamente assistido por um modelo de linguagem?
O Problema Constitucional
O Art. 205.º da Constituição da República Portuguesa é claro: as decisões dos tribunais são fundamentadas. Esta exigência não é meramente formal — é a garantia de que cada decisão reflecte o raciocínio de um magistrado humano, responsável perante a ordem jurídica.
«As decisões dos tribunais que não sejam de mero expediente são fundamentadas na forma prevista na lei.»
Art. 205.º, n.º 1, Constituição da República PortuguesaA questão que se coloca não é se a IA pode auxiliar na pesquisa ou na organização de argumentos — o direito sempre admitiu ferramentas de suporte. A questão é se uma decisão judicial pode ser parcial ou totalmente redigida por um sistema de IA sem que isso seja declarado, sem supervisão adequada e sem que as partes tenham conhecimento.
A resposta, à luz do direito vigente, é claramente negativa. Mas a prática está a correr à frente da lei.
O Que Diz o EU AI Act
O Regulamento (UE) 2024/1689, em vigor desde Agosto de 2024, classifica os sistemas de IA utilizados na administração da justiça como sistemas de IA de alto risco. Isto implica obrigações concretas: transparência, supervisão humana, avaliação de conformidade e, em determinados casos, registo num repositório europeu.
Portugal, como todos os Estados-membros, está vinculado a estas obrigações. O problema é que a aplicação prática é ainda incipiente. Não existe, no sistema judicial português, qualquer mecanismo formal de declaração do uso de IA na redacção de decisões.
Os 6 Indicadores que Revelam a IA
A análise forense linguística permite identificar padrões estatísticos que distinguem a escrita humana dos modelos de linguagem. No contexto jurídico português, estes padrões são particularmente relevantes porque o estilo dos tribunais é altamente específico — cada relator, cada tribunal, tem um idioma próprio que os modelos de IA ainda não reproduzem com fidelidade.
O Que Está Realmente em Risco
Para os Magistrados
O uso não declarado de IA na redacção de decisões cria responsabilidade disciplinar e eventualmente penal. Mas o risco maior é outro: a erosão silenciosa da autoridade das decisões judiciais. Uma sentença cuja fundamentação foi gerada por um modelo estatístico não é, em sentido estrito, a expressão do convencimento de um juiz — é a expressão de um padrão probabilístico.
Para os Advogados
A utilização de IA na redacção de peças processuais sem declaração às partes contrárias e ao tribunal levanta questões deontológicas sérias. O dever de lealdade processual exige que o advogado assuma a responsabilidade pelo conteúdo das suas peças. A IA não assina. O advogado sim.
Para as Faculdades de Direito
A integridade académica está sob pressão como nunca. Dissertações de mestrado, teses de doutoramento e trabalhos finais de licenciatura são submetidos em número crescente com assistência não declarada de IA. Ferramentas genéricas como o Turnitin, desenvolvidas para detectar plágio textual em inglês, falham consistentemente no contexto do português jurídico.
O Caminho a Seguir
A solução não é proibir a IA — seria ineficaz e contraproducente. A IA pode ser uma ferramenta poderosa de apoio à investigação jurídica, à organização de argumentos e à pesquisa de jurisprudência. O problema não é o uso. É o uso não declarado, não supervisionado e não verificável.
O que o sistema jurídico português precisa é de ferramentas de verificação calibradas para o contexto jurídico nacional. Ferramentas que conheçam o estilo do STJ, do TRL, do STA. Que reconheçam os padrões dos relatores. Que funcionem em português europeu, não em inglês traduzido.
Essa é a razão de ser do LexVeritas — o primeiro sistema de análise forense de IA construído especificamente para o sistema jurídico português. Não como instrumento de acusação, mas como ferramenta de verificação e transparência ao serviço de quem leva o direito a sério.
5 análises por mês · Sem cartão de crédito · Dados na União Europeia
Começar Gratuitamente →