Legal interpretation and AI: from expert systems to argumentation and LLMs

El artículo examina la evolución de la investigación en IA y Derecho frente a la interpretación legal, transitando desde la ingeniería de conocimiento en sistemas expertos y la representación de argumentos dialécticos, hasta la generación automatizada de interpretaciones mediante modelos de lenguaje.

Václav Janeček, Giovanni Sartor

Publicado 2026-03-06
📖 5 min de lectura🧠 Análisis profundo

Each language version is independently generated for its own context, not a direct translation.

🧠 La Inteligencia Artificial y el Abogado: Un Viaje de 50 Años

Imagina que el Derecho es un inmenso y antiguo castillo de reglas escritas en un idioma muy complejo. Interpretar la ley es como ser un guía turístico que decide, para cada visitante, qué puertas están abiertas y cuáles cerradas.

Este artículo cuenta la historia de cómo la Inteligencia Artificial (IA) ha intentado convertirse en ese guía turístico, pasando por tres etapas muy diferentes:

1. La Etapa de los "Expertos Robot" (Años 70-90)

La analogía: Imagina que intentas enseñar a un robot a jugar al ajedrez dándole un manual de instrucciones escrito en código binario.

  • Cómo funcionaba: Los primeros investigadores crearon sistemas basados en reglas estrictas. Un "ingeniero de conocimiento" (un humano muy inteligente) tenía que leer la ley y convertirla en una fórmula matemática perfecta para la computadora.
  • El problema: La ley no es como un manual de instrucciones; es ambigua.
    • Ejemplo clásico: Hay una regla que dice: "Prohibido entrar con vehículos al parque".
    • El ingeniero tuvo que decidir: ¿Una bicicleta es un vehículo? Si el ingeniero dice "SÍ" en el código, el robot prohibirá la bicicleta de un niño. Si dice "NO", la dejará pasar.
    • La crítica: El robot no "piensa"; solo sigue lo que el ingeniero le dijo. Si el ingeniero se equivocó o no pensó en una bicicleta de juguete, el robot será injusto y rígido. La interpretación se la llevaron los humanos antes de crear el robot, no el robot en el momento.

2. La Etapa de los "Debate y Argumentos" (Años 2000)

La analogía: Imagina un tribunal donde dos abogados pelean en lugar de un robot dando una respuesta única.

  • Cómo funciona: Aquí, la IA no intenta tener una sola "verdad" absoluta. En su lugar, construye un campo de batalla de argumentos.
  • El escenario:
    • El Guardián del parque (la IA) dice: "¡Detente! 'Vehículo' significa cualquier cosa con ruedas. Tu bicicleta es un vehículo". (Argumento basado en el significado literal).
    • El Niño Tom (la otra IA) responde: "¡Espera! El propósito de la regla es evitar ruido y accidentes graves. Una bicicleta de niño no hace ruido ni es peligrosa. Por lo tanto, no debería contar". (Argumento basado en el propósito de la ley).
  • La magia: El sistema evalúa qué argumento es más fuerte. En este caso, el sistema decide que el argumento del "propósito" gana sobre el "significado literal".
  • Resultado: La IA aprende a debatir, a usar canones de interpretación (como el sentido común o la intención del legislador) y a ver qué argumento "gana" la pelea lógica.

3. La Etapa de los "Chatterbots Geniales" (La IA Actual: LLMs)

La analogía: Imagina un estudiante universitario que ha leído todos los libros del mundo en segundos, pero que nunca ha salido a la calle ni ha sentido lo que es ser humano.

  • Cómo funciona: Hoy usamos Modelos de Lenguaje Grandes (como ChatGPT). No siguen reglas estrictas ni debaten lógicamente paso a paso. Ellos predicen qué palabras deberían seguir a otras basándose en patrones que han visto en millones de textos legales.
  • Lo bueno: Si le preguntas al chatbot: "¿Las bicicletas entran en el parque?", te dará una respuesta brillante, matizada y muy parecida a la de un abogado experto. Puede explicarte los pros y los contras, citar casos y usar un lenguaje natural perfecto.
  • Lo malo (El peligro de las "Alucinaciones"):
    • El chatbot es un actor brillante, no un juez. A veces, para sonar convincente, inventa hechos o leyes que no existen (alucinaciones).
    • No tiene "conciencia" ni entiende la realidad. Si le preguntas sobre una ley nueva de ayer, podría inventar una respuesta porque no la ha leído en sus datos de entrenamiento.
    • El riesgo: Si un juez o un abogado confía ciegamente en el robot, podría tomar una decisión basada en una mentira inventada por la máquina.

🚦 ¿Qué nos dice el artículo al final?

El mensaje principal es una advertencia con esperanza:

  1. No confíes ciegamente: La IA actual no puede ser el "Juez Final". No tiene la sabiduría humana para entender el contexto social, la moral o la justicia real. Si un robot multa al niño Tom por su bicicleta, el robot está fallando porque no entiende la intención humana detrás de la ley.
  2. Úsala como un "Copiloto": La IA es excelente para generar ideas, resumir textos, encontrar argumentos que un humano podría haber pasado por alto o traducir leyes complejas a lenguaje sencillo.
  3. El humano debe mantener el volante: El abogado o juez debe usar la IA como una herramienta de "lluvia de ideas" (brainstorming), pero siempre debe verificar los hechos, los argumentos y tomar la decisión final.

En resumen:
La IA ha pasado de ser un robot rígido que seguía instrucciones mal escritas, a ser un debatiente lógico, y hoy es un orador brillante que a veces miente. Su trabajo no es reemplazar al abogado, sino ser su mejor asistente, siempre y cuando el abogado mantenga los ojos abiertos y el control total de la decisión.

Recibe artículos como este en tu bandeja de entrada

Resúmenes diarios o semanales personalizados según tus intereses. Gists o resúmenes técnicos, en tu idioma.

Probar Digest →