Benchmarking Large Language Models for Quebec Insurance: From Closed-Book to Retrieval-Augmented Generation

Diese Studie stellt mit AEPC-QA einen neuen Benchmark für die Versicherungsbranche Québecs vor und zeigt, dass zwar RAG und Schlussfolgerungstechniken die Genauigkeit von Sprachmodellen erheblich steigern können, jedoch eine instabile Kontextverarbeitung und die Überlegenheit großer Generalisten gegenüber spezialisierten Modellen eine sorgfältige Robustheitskalibrierung vor dem autonomen Einsatz erfordern.

David Beauchemin, Richard Khoury

Veröffentlicht 2026-03-10
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

🏛️ Der große Test: Können KI-Chatbots wirklich Versicherungsberater sein?

Stell dir vor, du möchtest eine Versicherung abschließen. In der Provinz Québec (Kanada) hat das Gesetz kürzlich geändert: Du musst keinen menschlichen Berater mehr anrufen; du kannst alles online regeln. Das ist praktisch, aber auch gefährlich. Die Verträge sind wie dicke, unleserliche Bücher voller juristischer Fallstricke. Die meisten Menschen verstehen diese Sprache nicht.

Hier kommen die KI-Sprachmodelle (LLMs) ins Spiel. Die Idee war: „Lass die KI die Verträge lesen und dem Kunden erklären!" Aber die Forscher von der Universität Laval haben sich gefragt: „Können diese KIs das wirklich, oder halluzinieren sie nur?"

Sie haben einen riesigen Test durchgeführt, um das herauszufinden. Hier ist, was sie entdeckt haben, übersetzt in einfache Bilder:

1. Der Prüfungsraum ohne Hilfsmittel (Closed-Book)

Zuerst haben sie die KIs in einen Raum gesetzt, in dem sie keine Bücher durften. Sie mussten ihr Wissen aus dem Kopf abrufen.

  • Das Ergebnis: Es war ein Chaos. Viele KIs, die sonst sehr schlau wirken, scheiterten an den spezifischen Gesetzen von Québec. Sie wussten einfach nicht, was in den lokalen Gesetzen steht, weil sie meist mit englischen oder US-Rechtstraining gefüttert wurden.
  • Die Metapher: Stell dir vor, du stellst einen brillanten deutschen Juristen vor einen kanadischen Richter und erwartest, dass er die Gesetze von Québec auswendig kennt. Er wird scheitern, weil er das falsche „Gesetzesbuch" im Kopf hat.

2. Die KI mit dem Nachschlagewerk (RAG)

Dann gaben sie den KIs eine digitale Bibliothek (eine Datenbank mit allen offiziellen Versicherungsregeln) und sagten: „Such dir die richtige Seite raus und antworte dann."

  • Das Ergebnis: Das war ein großer Unterschied! Für viele KIs war das wie ein Gehirn-Booster. Modelle, die vorher nur 36 % richtig lagen, schafften plötzlich 71 %.
  • Die Metapher: Es ist wie ein Student, der eine Prüfung macht. Ohne Buch ist er panisch. Mit dem richtigen Lehrbuch in der Hand wird er zum Experten. Die KI muss das Gesetz nicht auswendig lernen; sie muss nur wissen, wie man es findet.

3. Das große „Aber": Der Ablenkungs-Effekt

Hier wird es spannend und etwas beängstigend. Nicht alle KIs kamen mit der Bibliothek zurecht.

  • Das Phänomen: Manche extrem intelligenten KIs, die im „ohne-Buch"-Modus super waren, fielen im „mit-Buch"-Modus ins Bodenlose. Sie bekamen die Informationen, aber sie verstanden die Frage nicht mehr oder gaben eine lange, verwirrende Erklärung statt einer klaren Antwort.
  • Die Metapher: Stell dir einen Weltmeister im Schach vor. Wenn du ihm plötzlich 50 neue, verwirrende Figuren auf das Brett legst und sagst „Spiele jetzt!", macht er vielleicht einen Fehler, weil er von der Masse an Informationen überwältigt ist. Die KI wurde von den Informationen „abgelenkt" und vergaß, was sie eigentlich tun sollte.

4. Der „Spezialisten-Paradoxon"

Man dachte vielleicht: „Eine KI, die speziell für französische Versicherungsfragen trainiert wurde, muss doch die Beste sein!"

  • Die Überraschung: Nein! Die riesigen, allgemeinen KIs (die alles wissen, von Kochrezepten bis zu Astrophysik) waren viel besser als die kleinen, spezialisierten KIs.
  • Die Metapher: Ein kleiner Handwerker, der nur Schrauben kennt, ist gut beim Schrauben. Aber ein riesiger, vielseitiger Ingenieur, der versteht, warum die Schraube da ist und wie sie mit dem ganzen Motor zusammenhängt, löst das Problem besser. Es geht weniger um das Auswendiglernen von Vokabeln, sondern um das logische Denken.

5. Der Preis für Intelligenz

Die klügsten KIs (die sogenannten „Reasoning-Modelle") waren die besten. Aber sie brauchen Zeit zum „Nachdenken".

  • Die Metapher: Ein schneller Lieferbote (eine einfache KI) bringt die Antwort in 2 Sekunden, aber sie könnte falsch sein. Ein genialer Detektiv (die fortschrittliche KI) braucht 45 Sekunden, um alle Beweise zu prüfen, aber er findet die richtige Antwort. Für eine Bank oder Versicherung ist die langsame, aber korrekte Antwort wichtiger als die schnelle, falsche.

🚨 Das Fazit: Noch nicht bereit für den Autopiloten

Die Forscher kommen zu einem klaren Schluss:
Wir können KI noch nicht einfach als autonomen Versicherungsberater einsetzen.

  1. Fehler sind teuer: Wenn eine KI falsch liegt, kann das für den Kunden den Verlust von Geld oder Versicherungsschutz bedeuten.
  2. Instabilität: Manchmal funktioniert die KI mit Hilfe (der Datenbank) besser, manchmal schlechter. Das ist zu unzuverlässig für den Ernstfall.
  3. Der menschliche Faktor: Bis die KI zu 100 % verlässlich ist, braucht es einen Menschen im Loop. Die KI soll der Assistent sein, der die Akten durchsucht, aber der Mensch muss das letzte Wort haben.

Kurz gesagt: Die KI hat das Potenzial, ein genialer Assistent zu sein, aber sie ist noch nicht reif genug, um allein am Steuer zu sitzen. Sie braucht noch mehr Training, um nicht von ihren eigenen Büchern abgelenkt zu werden, und wir müssen sicherstellen, dass sie die richtigen Gesetze (die von Québec, nicht die von New York) kennt.