LAMUS: A Large-Scale Corpus for Legal Argument Mining from U.S. Caselaw using LLMs

Die Arbeit stellt LAMUS vor, ein groß angelegtes Korpus für das Mining juristischer Argumente aus US-Rechtsprechungen, das mithilfe einer datenzentrischen Pipeline mit LLMs und menschlicher Qualitätskontrolle erstellt wurde, um die Forschung im Bereich Legal NLP voranzutreiben.

Serene Wang, Lavanya Pobbathi, Haihua Chen

Veröffentlicht 2026-03-10
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

🏛️ LAMUS: Der große Schatz der amerikanischen Gerichtsentscheidungen

Stellen Sie sich vor, Sie haben einen riesigen, staubigen Keller voller alter Bücher. Das sind die amerikanischen Gerichtsentscheidungen (von der Obersten Bundesgerichtshof bis zu lokalen Gerichten in Texas). Diese Bücher sind voller wichtiger Informationen, aber sie sind unordentlich. Ein Richter schreibt einen langen Text, in dem Fakten, Gesetze, Meinungen und Schlussfolgerungen wild durcheinander gemischt sind.

Die Forscher von LAMUS wollten diesen Keller aufräumen und jedes Buch so beschriften, dass man sofort weiß: „Hier steht ein Fakt", „Hier wird ein Gesetz zitiert" oder „Hier ist die Schlussfolgerung".

Das Problem? Es gibt zu viele Bücher, und zu lesen ist extrem schwer. Deshalb haben sie einen KI-Roboter (einen sogenannten „Large Language Model" oder LLM) engagiert, der ihnen hilft.

Hier ist, wie sie es gemacht haben, Schritt für Schritt:

1. Der Roboter als Lesehilfe (Die Aufgabe)

Stellen Sie sich vor, Sie geben dem Roboter einen Satz aus einem Gerichtsbeschluss und sagen: „Was ist das hier?"
Der Roboter muss den Satz in eine von sechs Schubladen werfen:

  • 📦 Fakten: Was ist passiert? (z. B. „Der Dieb stahl um 10 Uhr.")
  • Fragen: Was muss das Gericht entscheiden? (z. B. „War das Diebstahl?")
  • ⚖️ Regeln/Gesetze: Welche Gesetze gelten? (z. B. „Nach Gesetz X ist Diebstahl verboten.")
  • 🧠 Analyse: Wie wendet man das Gesetz auf den Fall an? (Das ist der knifflige Teil, wo der Richter denkt.)
  • Schlussfolgerung: Wer hat gewonnen? (z. B. „Der Angeklagte ist schuldig.")
  • 🗑️ Sonstiges: Alles andere (Überschriften, Fußnoten).

2. Der Trick mit dem „Gedankenprozess" (Chain-of-Thought)

Anfangs haben die Forscher den Roboter einfach gefragt: „Wohin gehört dieser Satz?" (Das nennt man Zero-Shot).
Dann dachten sie: „Vielleicht hilft es, wenn wir ihm ein paar Beispiele zeigen?" (Das nennt man Few-Shot – wie wenn man einem Kind zeigt, wie man einen Ball wirft, bevor man es selbst wirfen lässt).
Aber: Das funktionierte überraschend schlecht! Es war, als würde man dem Roboter zu viele Beispiele geben, die ihn verwirren, statt ihm zu helfen. Er fing an, Muster zu erraten, statt zu verstehen.

Der wahre Durchbruch kam, als sie den Roboter aufforderten, erst zu denken, bevor er antwortet.
Statt nur „Schubladen A" zu sagen, mussten sie ihm sagen: „Erkläre mir erst, warum das ein Fakt ist, und dann sag mir die Schubladennummer."
Das ist wie bei einem Schüler, der nicht nur die Antwort hinschreibt, sondern auch den Rechenweg zeigt. Dieser „Gedankenprozess" (Chain-of-Thought) machte den Roboter viel schlauer und genauer.

3. Der menschliche Korrekturleser (Qualitätskontrolle)

Roboter machen Fehler. Manchmal werfen sie einen Satz in die falsche Schublade.
Die Forscher haben also einen cleveren Trick angewendet:

  1. Der Roboter hat die ersten 100.000 Sätze sortiert.
  2. Ein zweiter, sehr kluger Roboter hat geprüft: „Hey, dieser Satz sieht für mich verdächtig aus!"
  3. Wenn der Roboter unsicher war, haben echte Menschen (Experten) nachgeschaut.
  4. Ergebnis: Sie haben fast 20 % der Fehler gefunden und korrigiert! Das ist wie ein Lektor, der einen Roman durchliest und die Tippfehler entfernt, bevor er gedruckt wird.

4. Der große Fund (Das Ergebnis)

Am Ende haben sie nicht nur die alten Bücher sortiert, sondern eine riesige neue Bibliothek namens LAMUS gebaut.

  • Sie enthält über 2,9 Millionen Sätze aus den Entscheidungen des Obersten Gerichtshofs der USA (von 1921 bis heute).
  • Jeder Satz ist sauber beschriftet.
  • Das ist ein riesiger Schatz für alle, die KI-Systeme entwickeln wollen, die Recht verstehen.

5. Was haben wir daraus gelernt? (Die wichtigsten Erkenntnisse)

  • Training ist besser als bloßes Fragen: Ein Roboter, der speziell auf diese Aufgabe „trainiert" wurde (wie ein Schüler, der extra für die Prüfung lernt), ist viel besser als ein Roboter, der nur Anweisungen bekommt. Der trainierte Roboter erreichte eine Genauigkeit von über 85 %.
  • Beispiele können stören: Wenn man einem KI-Modell zu viele Beispiele gibt (Few-Shot), wird es oft schlechter, besonders bei juristischen Texten.
  • Denken hilft: Wenn man den KI-Modellen sagt, sie sollen ihren Gedankengang erklären, werden sie viel besser.
  • Größe zählt: Große Modelle (mit viel „Gehirnkapazität") profitieren am meisten von diesem Denk-Trick.

🎯 Fazit für jeden

Die Forscher haben einen Weg gefunden, wie man KI nutzt, um den riesigen, unübersichtlichen Berg an amerikanischen Gerichtsentscheidungen zu ordnen. Sie haben gelernt, dass man KI nicht einfach nur „fragen" darf, sondern sie zum Nachdenken anregen muss und dass menschliche Kontrolle am Ende unverzichtbar ist.

Jetzt haben Wissenschaftler und Anwälte eine super-organisierte Datenbank, mit der sie in Zukunft KI-Systeme bauen können, die wie erfahrene Juristen denken und argumentieren können.