Are foundation models for computer vision good conformal predictors?

Die Studie zeigt, dass Vision- und Vision-Language-Grundmodelle sich hervorragend für konforme Vorhersagen eignen, wobei die APS-Methode besonders vielversprechend ist und eine Kalibrierung der Konfidenzvorhersagen die Effizienz adaptiver Verfahren sogar verschlechtern kann.

Leo Fillioux, Julio Silva-Rodríguez, Ismail Ben Ayed, Paul-Henry Cournède, Maria Vakalopoulou, Stergios Christodoulidis, Jose Dolz

Veröffentlicht 2026-02-17
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Stellen Sie sich vor, Sie haben einen extrem klugen, aber manchmal etwas übermütigen KI-Assistenten, der Bilder erkennt. Dieser Assistent ist ein sogenanntes „Foundation Model" (ein Grundmodell), das auf riesigen Datenmengen trainiert wurde. Er kann fast alles erkennen: Hunde, Autos, Blumen. Aber hier ist das Problem: Wenn er sich nicht sicher ist, sagt er oft trotzdem mit 100-prozentiger Überzeugung: „Das ist ein Hund!" – auch wenn es eigentlich eine Katze ist.

In der echten Welt, besonders in sensiblen Bereichen wie der Medizin oder der Sicherheit, ist diese falsche Sicherheit gefährlich. Wir brauchen einen Weg, der uns sagt: „Hey, ich bin mir bei diesem Bild nicht so sicher, schau dir mal diese drei Möglichkeiten an."

Genau hier kommt die Konforme Vorhersage (Conformal Prediction) ins Spiel.

Die Metapher: Der vorsichtige Detektiv

Stellen Sie sich die Konforme Vorhersage wie einen sehr vorsichtigen Detektiv vor. Ein normaler KI-Modell sagt: „Der Täter ist definitiv Herr Müller." Der Detektiv der konformen Vorhersage sagt jedoch: „Ich bin mir zu 90 % sicher, dass der Täter in dieser Gruppe von drei Personen ist."

Das Ziel ist nicht, den einen richtigen Namen zu nennen, sondern eine kleine Liste von Kandidaten zu erstellen, die mit hoher Wahrscheinlichkeit die richtige Antwort enthält. Je kleiner die Liste, desto effizienter ist der Detektiv. Je sicherer er ist, desto kleiner darf die Liste sein.

Was haben die Forscher herausgefunden?

Die Autoren dieses Papers haben untersucht, wie gut diese modernen, riesigen KI-Modelle (wie CLIP oder DINO) mit diesem „vorsichtigen Detektiv"-Ansatz funktionieren. Hier sind die wichtigsten Erkenntnisse, einfach erklärt:

1. Die modernen Modelle sind super Detektive
Frühere Modelle waren oft wie Schüler, die nur auswendig gelernt haben. Die neuen „Foundation Models" (besonders die, die auf der Vision Transformer-Technologie basieren, ähnlich wie moderne Sprach-KIs) sind wie erfahrene Ermittler. Sie verstehen Bilder viel besser und können viel präzisere Listen erstellen. Sie brauchen weniger Kandidaten auf ihrer Liste, um sicher zu sein, dass die richtige Antwort dabei ist.

2. Der „Selbstvertrauens-Trick" funktioniert nicht immer
Es gibt eine beliebte Methode, um KI-Modelle „bescheidener" zu machen, indem man ihre Selbstvertrauens-Skala (die Wahrscheinlichkeiten) nachträglich glättet. Man nennt das „Kalibrierung".

  • Die Analogie: Stellen Sie sich vor, Sie nehmen einen sehr selbstbewussten Schüler und sagen ihm: „Sei etwas bescheidener."
  • Das Ergebnis: Der Schüler wird zwar ehrlicher, aber der Detektiv (die Konforme Vorhersage) muss nun eine viel längere Liste von Verdächtigen aufschreiben, um sicherzugehen. Die Effizienz sinkt. Die Forscher fanden heraus, dass bei diesen modernen Modellen das „Bescheidener-Machen" oft mehr schadet als nützt, wenn man präzise Listen will.

3. Anpassung ist der Schlüssel (Few-Shot Learning)
Oft muss man diese riesigen Modelle an neue, spezielle Aufgaben anpassen (z. B. nur noch bestimmte Hunderassen erkennen).

  • Die Analogie: Ein Generalist, der ein paar Stunden lang nur über Dalmatiner lernt, wird plötzlich ein besserer Dalmatiner-Experte als ein Spezialist, der nur auf alten Daten trainiert wurde.
  • Das Ergebnis: Wenn man diese Modelle mit ein paar wenigen Beispielen (Few-Shot) anpasst, werden ihre Vorhersagelisten kleiner und genauer. Das ist viel besser als wenn man sie ohne Anpassung (Zero-Shot) verwendet.

4. Wenn die Welt sich ändert (Domain Shift)
Was passiert, wenn das Modell Bilder aus einer anderen Welt sieht? (Zum Beispiel: Es wurde mit Fotos von echten Autos trainiert, muss aber nun Skizzen von Autos erkennen).

  • Die Entdeckung: Die Methode namens APS (Adaptive Prediction Sets) ist hier der Held. Sie ist wie ein Detektiv, der weiß, dass die Beweislage schwierig ist. Wenn die Bilder verwirrend sind, erweitert APS seine Liste sofort, um sicherzustellen, dass der Täter (die richtige Antwort) trotzdem dabei ist. Andere Methoden würden hier versagen und falsche Sicherheit vortäuschen.

Das Fazit für den Alltag

Dieses Papier sagt uns im Grunde:
Die neuen, riesigen KI-Modelle für Bilder sind hervorragend geeignet, um sicher und zuverlässig eingesetzt zu werden – wenn man sie richtig nutzt.

  • Vertraue den großen Modellen: Sie sind besser als die alten.
  • Sei vorsichtig mit „Bescheidenheit": Versuche nicht, die KI künstlich zu dämpfen; das macht ihre Listen nur unnötig lang.
  • Lass sie lernen: Gib ihnen ein paar Beispiele für die neue Aufgabe, und sie werden viel besser.
  • Wähle den richtigen Detektiv: Die Methode APS ist besonders robust, wenn die Bedingungen unvorhersehbar sind (z. B. in der medizinischen Diagnostik), auch wenn sie manchmal etwas mehr Kandidaten auf die Liste setzt.

Zusammengefasst: Mit der richtigen Methode können wir diese mächtigen KI-Riesen so zähmen, dass sie nicht nur „raten", sondern uns verlässliche, sichere Hinweise geben – genau das, was wir in kritischen Situationen brauchen.

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →