Semi-Supervised Conformal Prediction With Unlabeled Nonconformity Score

Deze paper introduceert SemiCP, een semi-superviserde methode voor conformele voorspelling die ongelabelde data via een 'Nearest Neighbor Matching'-score benut om de stabiliteit en dekking van voorspellingen te verbeteren wanneer gelabelde data schaars is.

Xuanning Zhou, Zihao Shi, Hao Zeng, Xiaobo Xia, Bingyi Jing, Hongxin Wei

Gepubliceerd Wed, 11 Ma
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Titel: Hoe je met "stille helpers" een veiliger voorspelling maakt

Stel je voor dat je een waarzegger bent die voor een patiënt een diagnose moet stellen. Je wilt niet zomaar zeggen: "Je hebt ziekte X." Nee, je wilt zekerheid. Je wilt zeggen: "Ik ben 95% zeker dat het ziekte X is, maar het zou ook Y kunnen zijn." Dit noemen we in de AI-wereld Conformal Prediction. Het is een manier om te zeggen: "Hoeveel vertrouwen kunnen we hebben in dit antwoord?"

Maar hier zit een probleem. Om die 95% zekerheid te berekenen, moet de waarzegger eerst oefenen met een stapel voorbeelden waar het antwoord al bekend is (gelabelde data). In de echte wereld is die stapel echter vaak erg klein.

Het Probleem: De Kwalende Koffiebar

Stel je voor dat je een barista bent die moet bepalen hoe lang een kopje koffie moet trekken om perfect te zijn. Je hebt slechts 10 proefkopjes om je te baseren.

  • Als je op die 10 kopjes kijkt, kun je een gemiddelde tijd kiezen.
  • Maar wat als die 10 kopjes per ongeluk allemaal net iets te kort of te lang waren getrokken? Dan is je voorspelling voor de volgende klant onbetrouwbaar. Je kunt te lang trekken (koffie wordt bitter) of te kort (koffie is waterig).
  • In de AI betekent dit: je voorspelling is onstabiel. Soms ben je te zeker, soms te onzeker.

De auteurs van dit paper zeggen: "Wacht even, we hebben duizenden andere koffiebonen die we nog niet hebben getrokken, maar waar we wel de bonen van hebben (ongelabelde data). Laten we die ook gebruiken!"

De Oplossing: SemiCP en de "Nearest Neighbor"

Deze paper introduceert een nieuwe methode genaamd SemiCP. Het idee is simpel: gebruik niet alleen de 10 bekende proefkopjes, maar haal ook de duizenden onbekende bonen erbij om je voorspelling te stabiliseren.

Maar hoe doe je dat zonder te weten of die onbekende bonen nu goed of slecht zijn? Dat is waar de NNM-score (Nearest Neighbor Matching) om de hoek komt kijken.

De Creatieve Analogie: De "Dubbelganger"-Techniek

Stel je voor dat je een nieuwe, onbekende koffiebon hebt (een ongelabeld voorbeeld). Je wilt weten hoe lang deze moet trekken, maar je kent het antwoord niet.

  1. De Pseudo-Label: Je laat je beste koffie-expert (het AI-model) een gok doen. De expert zegt: "Deze bon lijkt op een 'Arabica', dus trek hem 20 seconden." Dit is een gok, geen feit.
  2. Het Probleem: Experts zijn vaak zelfverzekerd, maar soms fout. Als de expert zegt "20 seconden", is dat waarschijnlijk een beetje te optimistisch (te kort), omdat experts altijd denken dat ze gelijk hebben.
  3. De Oplossing (NNM): In plaats van blindelings te vertrouwen op die 20 seconden, kijken we naar onze 10 bekende proefkopjes.
    • We zoeken in die 10 kopjes de één die het meest lijkt op onze nieuwe bon (in termen van hoe de expert erover denkt).
    • Stel, die bekende kop (die we wel kennen) werd ook door de expert geschat op 20 seconden, maar in werkelijkheid bleek hij 25 seconden nodig te hebben.
    • De conclusie: De expert is in dit soort situaties 5 seconden te optimistisch.
    • De actie: We passen die "5 seconden correctie" toe op onze nieuwe, onbekende bon.

Dit is Nearest Neighbor Matching: we zoeken een "tweeling" in onze bekende dataset om de fout van de expert te meten en die fout te corrigeren voor de onbekende data.

Waarom is dit zo goed?

  1. Stabiliteit: Door duizenden van deze "gecorrigeerde goks" toe te voegen aan je berekening, wordt je gemiddelde veel stabieler. Je hoeft niet meer te hopen dat je 10 proefkopjes toevallig perfect waren. Je hebt nu duizenden steunpunten.
  2. Efficiëntie: Omdat je zekerder bent, hoef je geen enorme lijst met mogelijke ziektes te geven. Je kunt zeggen: "Het is waarschijnlijk X of Y" in plaats van "Het kan alles zijn". Dat maakt de voorspelling nuttiger.
  3. Geen extra training: Het mooie van deze methode is dat je geen nieuwe AI-modellen hoeft te trainen. Je gebruikt gewoon de bestaande data en een slimme zoektocht naar "tweelingen".

Het Resultaat in het Kort

De auteurs hebben dit getest op enorme datasets (zoals ImageNet, waar modellen moeten leren herkennen wat er op foto's staat).

  • Zonder deze methode: Met slechts 20 voorbeelden was de voorspelling onstabiel en onnauwkeurig.
  • Met deze methode: Door 4000 onbekende voorbeelden erbij te halen, werd de voorspelling 77% stabieler. De voorspellingen waren betrouwbaarder en de lijsten met mogelijke antwoorden werden korter en preciezer.

Samenvattend:
Deze paper leert ons dat we niet hoeven te wachten tot we duizenden perfecte voorbeelden hebben om een goede AI te bouwen. Als we slim zijn en kijken naar hoe onze AI "dwaalt" bij bekende voorbeelden, kunnen we die kennis gebruiken om ook bij de onbekende voorbeelden de juiste kant op te sturen. Het is alsof je een kompas hebt dat je niet alleen laat zien waar je bent, maar ook corrigeert op basis van hoe je eruit ziet ten opzichte van mensen die je al kent.