Legal interpretation and AI: from expert systems to argumentation and LLMs

O artigo traça a evolução da pesquisa em Inteligência Artificial e Direito no que tange à interpretação jurídica, passando da engenharia de conhecimento em sistemas especialistas e da representação de argumentos dialéticos até a geração automatizada de sugestões interpretativas por meio de modelos de linguagem.

Václav Janeček, Giovanni Sartor

Publicado 2026-03-06
📖 5 min de leitura🧠 Leitura aprofundada

Each language version is independently generated for its own context, not a direct translation.

Imagine que a lei é como um livro de regras gigante para um jogo muito complexo, chamado "Vida em Sociedade". O problema é que as regras desse livro às vezes são escritas de forma confusa, ou o jogo mudou tanto que as regras antigas não parecem fazer mais sentido. É aí que entra a interpretação jurídica: é o trabalho de descobrir o que a regra realmente significa na prática.

Este artigo é como uma história de três gerações de "robôs detetives" tentando ajudar os juízes e advogados a resolver esses mistérios. Vamos conhecer essas três gerações usando uma analogia simples: o Parque Proibido.

A regra é: "Nenhum veículo no parque."
A pergunta é: Um menino de bicicleta pode entrar?

1ª Geração: O Robô "Arquiteto de Regras" (Sistemas Especialistas)

Anos 70 a 90.

Imagine que, nessa época, os cientistas tentaram construir um robô que funcionava como um arquiteto de Lego. Eles achavam que, se escrevessem todas as regras do mundo de forma matemática perfeita, o robô saberia tudo.

  • Como funcionava: Um humano (o "engenheiro") tinha que pegar a regra "Nenhum veículo" e transformá-la em código lógico antes de colocar no robô.
    • Opção A: O engenheiro diz ao robô: "Se for uma bicicleta, é veículo. Proibido."
    • Opção B: O robô pergunta ao usuário: "Sua bicicleta é um veículo?" e espera a resposta humana.
  • O Problema: O robô era muito rígido. Se o engenheiro esquecesse de dizer que "bicicletas de crianças são permitidas", o robô multaria o menino Tom, mesmo que a intenção da regra fosse apenas proibir carros barulhentos. O robô não entendia o contexto ou o motivo da regra, apenas seguia o manual. Ele transferia a responsabilidade da interpretação para quem escreveu o código, não para quem aplicava a lei.

2ª Geração: O Robô "Advogado de Debates" (Argumentação)

Anos 90 até hoje.

Os cientistas perceberam que a vida não é só "sim" ou "não". Às vezes, uma regra pode ter dois significados válidos que brigam entre si. Então, eles criaram robôs que funcionam como juízes de um debate.

  • Como funciona: Em vez de ter uma única resposta fixa, o robô cria dois times:
    • Time 1 (O Guarda): "Bicicleta é veículo! A regra diz 'veículo', e na linguagem comum, bicicleta é veículo. Proibido!"
    • Time 2 (O Menino Tom): "Mas espere! O objetivo da regra é evitar barulho e sujeira. Bicicletas de crianças não fazem barulho nem sujam. O propósito da lei é proteger a paz do parque, então deve ser permitido!"
  • O Resultado: O robô analisa os argumentos. Ele usa "regras de debate" (chamadas de cânones de interpretação) para ver qual argumento é mais forte. Se o argumento do "propósito" for mais forte que o da "linguagem comum", o robô decide que o menino pode entrar.
  • A Vantagem: O robô agora consegue lidar com a ambiguidade e o conflito, imitando como os humanos realmente pensam e discutem a lei.

3ª Geração: O Robô "Leitor Infinito" (Inteligência Artificial Generativa e LLMs)

Hoje em dia (como o ChatGPT).

Agora temos robôs que não foram programados com regras lógicas nem com debates estruturados. Eles são como estudantes que leram todos os livros do mundo e aprenderam a falar como nós.

  • Como funciona: Você pergunta ao robô: "Bicicleta conta como veículo no parque?" E ele responde, não porque tem uma regra escrita, mas porque leu milhões de textos parecidos e sabe que, na maioria das vezes, as pessoas discutem isso de tal forma.
  • O Grande Truque: Ele é incrível em gerar ideias. Ele pode dizer: "Depende do objetivo! Se for para evitar barulho, não conta. Se for para evitar sujeira, talvez conte." Ele consegue simular um advogado muito bem.
  • O Perigo (A Alucinação): O problema é que esse robô é um ator genial, mas não sabe a verdade. Ele pode inventar leis que não existem (alucinar) ou dar uma resposta que soa perfeita, mas é juridicamente errada. Ele não "entende" a lei; ele apenas adivinha qual é a próxima palavra mais provável baseada no que leu.
  • O Risco: Se você confiar cegamente nele, ele pode multar o menino Tom porque "achou" que bicicletas são proibidas, mesmo que a lei local diga o contrário. Ele não tem consciência moral nem entende a justiça, apenas padrões de texto.

A Conclusão: O Robô é um Assistente, não o Chefe

O artigo termina com uma lição importante: Não deixe o robô decidir sozinho.

Pense no robô de IA como um estagiário superinteligente, mas inexperiente.

  • Ele pode ler 10.000 documentos em um segundo e sugerir 50 argumentos diferentes para o caso do menino Tom.
  • Ele pode encontrar leis antigas que você esqueceu.
  • MAS, o advogado ou o juiz (o humano) precisa ser o chefe. O humano deve pegar as sugestões do robô, verificar se são verdadeiras, checar se fazem sentido moral e legal, e tomar a decisão final.

Se deixarmos o robô decidir sozinho (como um sistema autônomo), ele pode cometer erros graves, multar inocentes ou criar injustiças porque ele não tem "coração" nem "consciência", apenas estatísticas.

Resumo da Ópera:
A IA na lei evoluiu de um robô que seguia regras cegas, para um que debate argumentos, e hoje é um robô que escreve textos incríveis. Mas, assim como em qualquer profissão, a tecnologia é uma ferramenta poderosa para ajudar o profissional, nunca para substituir o julgamento humano e a responsabilidade ética. O menino Tom ainda precisa de um humano para garantir que ele não seja multado injustamente.

Receba artigos como este na sua caixa de entrada

Digests diários ou semanais personalizados de acordo com seus interesses. Gists ou resumos técnicos, no seu idioma.

Experimentar Digest →