Hierarchical Concept-based Interpretable Models

Deze paper introduceert HiCEMs, een nieuw model dat hiërarchische conceptrelaties expliciet modelleert en via een methode genaamd Concept Splitting automatisch fijnkorrelige subconcepten ontdekt zonder extra annotaties, waardoor interpreteerbare en nauwkeurige voorspellingen mogelijk worden op verschillende niveaus van detail.

Oscar Hill, Mateo Espinosa Zarlenga, Mateja Jamnik

Gepubliceerd 2026-03-02
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een zeer slimme, maar mysterieuze kok hebt. Deze kok kan de perfecte maaltijd bereiden (een taak uitvoeren) en doet dit met ongelooflijke precisie. Maar als je vraagt: "Waarom heb je precies deze ingrediënten gebruikt?", antwoordt de kok alleen maar met een raadselachtige code: "Omdat de latentie-vector 42,5 en 19,2 aangeeft dat het de juiste keuze is."

Dat is precies het probleem met moderne kunstmatige intelligentie (AI). Ze zijn slim, maar we begrijpen niet waarom ze bepaalde beslissingen nemen.

Deze paper introduceert een nieuwe manier om deze koks (AI-modellen) niet alleen slim, maar ook begrijpelijk te maken. Ze noemen hun oplossing HiCEM (Hierarchical Concept Embedding Models). Hier is hoe het werkt, vertaald naar alledaags taal:

1. Het oude probleem: De "Losse" Ingrediënten

Vroeger hadden we modellen die wel konden uitleggen wat ze zagen, maar ze zagen het als losse, ongerelateerde feiten.

  • Voorbeeld: Een model zegt: "Ik zie een groente" en "Ik zie een rood object".
  • Het probleem: Het model snapt niet dat "rode paprika" een soort groente is. Het behandelt "groente" en "rood" als twee totaal losse dingen. Alsof de kok denkt dat "groente" en "rood" twee verschillende gerechten zijn, in plaats van dat het een onderdeel van één gerecht is.

2. De nieuwe oplossing: De "Ladder" van Concepten

De auteurs introduceren HiCEM. Denk hierbij aan een ladder of een stamboom.

  • Bovenaan heb je een breed concept: "Groente".
  • Daaronder hangen de specifieke takken: "Uien", "Wortels", "Paprika's".

In plaats van dat het model alleen "Groente" ziet, leert het nu ook de onderliggende takken. Als het model zegt "Dit is een groente", weten we nu ook welke groente het precies is. Dit maakt de uitleg veel rijker en menselijker.

3. De Magische Truc: "Concept Splitting" (Het Splitsen van Concepten)

Hier wordt het echt slim. Normaal gesproken moet je een kok (AI) van tevoren alles leren. Als je wilt dat hij "Uien" herkent, moet je hem duizenden foto's van uien laten zien met het label "Uien". Dat is duur en tijdrovend.

De auteurs bedachten een methode genaamd Concept Splitting.

  • De Analogie: Stel je voor dat je een kok hebt die al heel goed "Groente" herkent, maar hij heeft nooit geleerd wat een "Ui" is.
  • De Truc: De onderzoekers kijken naar de "hersenen" (de interne code) van deze kok. Ze zien dat er binnen het concept "Groente" een klein, verborgen hoekje zit dat altijd oplicht als er een ui in de soep zit, en een ander hoekje dat oplicht bij wortels.
  • Het Resultaat: Ze kunnen deze verborgen hoekjes "ontdekken" en er nieuwe labels aan plakgen, zonder dat ze ooit een foto van een ui hebben getoond! Ze hebben de "Groente"-code gewoon opengesneden om de onderdelen te vinden.

Dit noemen ze Concept Splitting: het automatisch vinden van de kleine onderdelen in een groot concept.

4. Waarom is dit geweldig? (De Voordelen)

  1. Minder werk: Je hoeft niet alles handmatig te labelen. Je geeft het model alleen de grote lijnen (bijv. "Groente"), en het model vindt zelf de kleine details (Uien, Wortels) op basis van zijn eigen ervaring.
  2. Beter corrigeren: Stel dat de kok per ongeluk denkt dat er een "Ui" in de soep zit, terwijl het eigenlijk een "Knoflook" is. Omdat het model nu de ladder kent, kun je als mens ingrijpen: "Nee, dat is geen ui, dat is knoflook." Omdat het model de structuur begrijpt, past het zijn hele beslissing hierop aan en wordt de maaltijd (het eindresultaat) beter.
  3. Betrouwbare uitleg: In plaats van een raadselachtige code, krijg je een duidelijke uitleg: "Ik heb dit gerecht gekozen omdat er groenten in zitten, en specifiek omdat ik ui en wortel heb herkend."

Samenvattend

Deze paper zegt eigenlijk: "Laten we AI-modellen niet behandelen als zwarte dozen, maar als lerende koks die een hiërarchie van kennis hebben."

Ze hebben een manier gevonden om die koks te laten ontdekken dat "Groente" niet één ding is, maar een familie van specifieke groenten. En het beste van alles? Ze hoeven niet alles van tevoren te leren; ze kunnen de kennis zelf uit hun eigen ervaring halen. Dit maakt AI niet alleen slimmer, maar ook eerlijker en makkelijker te vertrouwen.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →