A Systematic Comparison of Training Objectives for Out-of-Distribution Detection in Image Classification

Dit artikel presenteert een systematische vergelijking van vier trainingsdoelen voor het detecteren van out-of-distributie in beeldclassificatie en concludeert dat Cross-Entropy Loss over het algemeen de meest consistente prestaties levert, hoewel andere methoden in specifieke scenario's concurrerend kunnen zijn.

Furkan Genç, Onat Özdemir, Emre Akbas

Gepubliceerd 2026-03-10
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een super slimme robot hebt die foto's van dieren kan herkennen. Hij is getraind met duizenden foto's van honden, katten en paarden. Maar wat gebeurt er als je hem een foto van een auto of een pizza laat zien? Een echte slimme robot zou moeten zeggen: "Hé, dit ken ik niet! Dit is geen dier!"

In de wereld van kunstmatige intelligentie noemen we dit OOD-detectie (Out-of-Distribution). Het is cruciaal voor veiligheid, bijvoorbeeld bij zelfrijdende auto's die niet zomaar een verkeersbord moeten verwarren met een vliegtuig.

De onderzoekers van dit paper (Furkan Genç, Onat Özdemir en Emre Akbaş) hebben zich afgevraagd: Hoe leren we deze robot het beste om deze fouten te maken? Ze hebben gekeken naar vier verschillende manieren om de robot te "trainen" (vier verschillende trainingsdoelen).

Hier is een simpele uitleg van hun onderzoek, met een paar leuke vergelijkingen:

De Vier Trainingsmethoden (De "Leraren")

De onderzoekers hebben vier verschillende "leraren" getest om de robot te leren. Elk heeft een andere aanpak:

  1. Cross-Entropy Loss (De Klassieke Leraar):

    • Hoe het werkt: Deze leraar zegt: "Als je een hond ziet, geef dan 100% zekerheid dat het een hond is. Als het een kat is, geef dan 0% zekerheid." Hij focust puur op het juiste antwoord geven.
    • Vergelijking: Het is als een schoolmeester die alleen kijkt of je het juiste antwoord op de toets hebt. Hij is heel goed in het leren van de stof, maar niet altijd specifiek getraind om te zeggen: "Dit is een vraag die niet in het boek staat."
  2. Triplet Loss (De Afstandsmeester):

    • Hoe het werkt: Deze leraar leert de robot om op afstanden te letten. Hij zegt: "Houd de hond en de kat ver uit elkaar, maar houd de verschillende honden dicht bij elkaar."
    • Vergelijking: Stel je voor dat je een dansles geeft. Je zegt: "Dansers van hetzelfde gezin moeten hand in hand dansen, maar dansers van andere gezinnen moeten ver uit elkaar staan." Het werkt goed als je maar een paar gezinnen hebt, maar als je 100 verschillende gezinnen hebt, wordt het een chaos om iedereen op de juiste plek te houden.
  3. Prototype Loss (De Verzamelaar):

    • Hoe het werkt: Deze leraar maakt voor elke categorie één "perfect voorbeeld" (een prototype). Hij zegt: "Houd alle honden zo dicht mogelijk bij dit ene perfecte hond-voorbeeld."
    • Vergelijking: Het is alsof je een museum hebt met één perfecte schilderij van een hond. Alle andere hondenschilderijen moeten zo dicht mogelijk bij dat ene hangen. Als er iets anders (een auto) binnenkomt, valt het ver weg van dat perfecte hond-voorbeeld.
  4. Average Precision Loss (De Rangschikkingmeester):

    • Hoe het werkt: Deze leraar is niet zozeer geïnteresseerd in het exacte percentage, maar in de volgorde. Hij zegt: "Zorg dat de goede antwoorden altijd bovenaan de lijst staan, en de foute antwoorden onderaan."
    • Vergelijking: Het is als een lijstje maken van de beste pizza's. Het maakt niet uit of je pizza een 9 of een 10 is, zolang hij maar boven de "verkeerde" pizza's (zoals een salade) staat.

Wat hebben ze ontdekt? (De Uitslag)

De onderzoekers hebben deze vier methoden getest op verschillende "proefvelden" (datasets) met verschillende moeilijkheidsgraden:

  • Eenvoudig: 10 soorten dieren (CIFAR-10).
  • Moeilijk: 100 soorten dieren (CIFAR-100).
  • Zeer moeilijk: 200 soorten dieren (ImageNet).

Hier zijn de belangrijkste conclusies, vertaald naar alledaags taal:

  • De Klassieke Leraar (Cross-Entropy) is de winnaar:
    Opvallend genoeg was de "ouderwetse" methode (Cross-Entropy) vaak de beste. Hij was niet alleen heel goed in het herkennen van de bekende dieren, maar ook heel betrouwbaar in het zeggen: "Dit ken ik niet!" bij vreemde dingen. Hij was de meest stabiele keuze, vooral bij grote en moeilijke verzamelingen.

  • De Afstandsmeester (Triplet) heeft het moeilijk:
    Bij de kleine test (10 dieren) ging het goed, maar zodra het aantal dieren groeide (100 of 200), raakte deze methode in de war. Het was te moeilijk om voor elke soort de perfecte afstand te vinden. De robot werd dan minder goed in het herkennen van de bekende dieren én minder goed in het detecteren van vreemde dingen.

  • De Verzamelaar (Prototype) en Rangschikkingmeester (AP) zijn sterke nummers 2:
    Deze twee deden het soms zelfs beter dan de Klassieke Leraar bij het herkennen van specifieke vreemde dingen, maar ze waren niet altijd zo betrouwbaar als de Klassieke Leraar in alle situaties. Ze zijn goed, maar je moet ze met zorg kiezen.

De Grote Les

De kernboodschap van dit paper is: Je hoeft niet altijd te zoeken naar de nieuwste, ingewikkelde trucjes.

De standaardmethode (Cross-Entropy) die al decennia wordt gebruikt, is nog steeds een zeer sterke kampioen. Hij is betrouwbaar, werkt goed op grote schaal en is niet zo complex als de andere methoden.

  • Voor de eenvoudige taken: Alle methoden werken redelijk.
  • Voor de moeilijke, echte wereld: De Klassieke Leraar (Cross-Entropy) is vaak de veiligste en beste keuze.

Conclusie in één zin:
Als je een AI wilt bouwen die veilig is en vreemde dingen kan herkennen, hoef je niet per se een ingewikkelde nieuwe trainingsmethode te verzinnen; de bewezen, klassieke methode werkt vaak nog steeds het beste en meest betrouwbaar.