A Comissão Europeia para a Eficiência da Justiça (CEPEJ), do Conselho da Europa, adotou em dezembro de 2025 um conjunto de Diretrizes sobre a utilização de IA generativa nos tribunais. A Direção-Geral da Política de Justiça (DGPJ) traduziu agora integralmente o documento para português, disponibilizando-o ao setor da justiça nacional.
As diretrizes são um roteiro prático para tribunais e demais equipamentos da administração da justiça.
Garantias judiciais
O documento é claro: o exercício da função jurisdicional pertence apenas aos juízes. Sistemas de IA generativa não podem decidir; apenas podem apoiar tarefas preparatórias.
Qualquer automatização tem de garantir sempre o direito de acesso a um tribunal e a um juiz humano. É vedada a substituição silenciosa de decisões judiciais por sistemas algorítmicos. Resultados produzidos pela IA generativa não têm valor vinculativo, nem devem criar pressão para que o juiz os siga.
Além disso, deve ficar claramente documentado quando a IA generativa é utilizada em qualquer aspeto da tomada de decisão judicial.
Também é exigida a pseudonimização dos dados e proibição de reutilização dos dados judiciais para treino de modelos sem autorização expressa.
Áreas adequadas para a utilização de IA
As diretrizes apontam várias áreas adequadas de utilização da IA, sobretudo de baixo risco, desde que com supervisão humana.
Na gestão documental e tratamento de informação, o documento refere usos para a IA, como o resumo de documentos, elaboração de índices, extração de dados relevantes para minutas e modelos, bem como a transcrição e geração de atas de audiências.
Nos serviços de informação ao público, a IA generativa pode permitir a criação de chatbots especializados para orientação procedimental em linguagem clara e ferramentas de tradução para linguagem simples, aumentando a acessibilidade das decisões.
No apoio à redação de atos judiciais, pode ser usada para minutas padronizadas de despachos de mero expediente ou decisões rotineiras, verificação de consistência interna de decisões e ligação entre articulados, sempre com verificação judicial obrigatória.
Para secretarias e gabinetes de apoio, antevê-se redução de trabalho repetitivo e melhoria da gestão de informação.
Para magistrados, a IA pode tornar-se uma ferramenta de apoio à pesquisa e estruturação de decisões, mas nunca substituindo a análise jurídica.
Aplicações inadequadas e limites éticos
Identificam-se também aplicações inadequadas da IA e zonas de risco, como sistemas proibidos ao abrigo do Regulamento Europeu da IA, nomeadamente de classificação social, avaliação de risco para prevenção de crimes ou inferência de emoções.
Sistemas de alto risco na justiça, que auxiliam a interpretação de factos e direito e aplicação ao caso concreto, só são admissíveis com requisitos muito estritos. A IA não deve substituir a apreciação da prova em julgamento, nem ser usada para análise de constitucionalidade ou conformidade com tratados internacionais, interpretação evolutiva de normas recentes não integradas no treino do modelo, ou casos que envolvam privação da liberdade, menores ou pessoas vulneráveis.
Ferramentas que atribuem pontuações de risco ou sugerem decisões em matéria penal ou de direitos fundamentais são frontalmente incompatíveis com as diretrizes. Advogados e magistrados devem ser extremamente cautelosos com sistemas que prometem prever sentenças ou probabilidades de êxito.
Soberania tecnológica e proteção de dados
Tribunais e administração da justiça terão de investir em plataformas próprias de IA generativa, seguras e auditáveis. Advogados e sociedades são fortemente desincentivados de usar ferramentas abertas com dados sensíveis de clientes, sob pena de risco sério de violação de deveres de sigilo e proteção de dados.
Deveres e responsabilidades das partes
Relativamente à utilização de IA generativa por advogados e litigantes, as diretrizes admitem a possibilidade de impor a obrigação de declarar quando se recorreu a sistemas de IA na preparação de documentos jurídicos, na investigação do processo ou na recolha de prova. Estão previstas sanções processuais em caso de omissão dessa declaração ou de dependência excessiva de conteúdos gerados por IA sem a devida verificação. Identificam-se condutas graves como a apresentação de prova fabricada, citações jurídicas inexistentes ou conteúdos gerados por IA que não tenham sido devidamente revistos, bem como tentativas de manipulação de sistemas de IA através de instruções ocultas em documentos ou a utilização de IA para criar vídeos ou provas gráficas fraudulentas.
Para a advocacia, cresce o risco de responsabilidade disciplinar e processual quando se utilizam ferramentas de IA sem validação adequada, tornando-se recomendável a adoção de políticas internas sobre uso de IA e procedimentos para confirmar jurisprudência e normas mencionadas pela tecnologia.
Formação e responsabilidade do Estado
A implementação exige a sensibilização e formação dos utilizadores. Juízes, magistrados do Ministério Público e funcionários judiciais devem receber formação adequada para compreender, gerir e avaliar criticamente as ferramentas disponíveis, evitando a confiança excessiva na exatidão dos sistemas. A literacia em IA passará a ser uma competência profissional essencial para quem trabalha na justiça.
Também refere o documento que “O Estado deve assumir a responsabilidade por quaisquer danos causados por erros judiciais ou falhas dos sistemas de IA generativa, em conformidade com os princípios existentes da responsabilidade do Estado. Nem a autonomia nem a complexidade tecnológica da IA generativa devem ser invocadas para isentar o Estado do seu dever de reparação”.
Implementação Gradual
A estratégia proposta defende uma abordagem por fases, começando por funções administrativas simples e progredindo para tarefas analíticas mais complexas apenas após avaliações de impacto positivas e testes-piloto. Será assim, de implementação gradual.
© 2024 All rights reserved