Digging Deeper: Learning Multi-Level Concept Hierarchies

Dit paper introduceert Multi-Level Concept Splitting (MLCS) en Deep-HiCEMs om diepe, mensinterpreteerbare concepthiërarchieën te ontdekken uit slechts top-niveau supervisie, waardoor modellen zowel nauwkeuriger worden als beter interpreteerbaar en manipuleerbaar op verschillende abstractieniveaus.

Oscar Hill, Mateo Espinosa Zarlenga, Mateja Jamnik

Gepubliceerd 2026-03-12
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een kunstwerk bekijkt en vraagt: "Waarom vind jij dit een mooi schilderij?" Een slimme computer zou kunnen antwoorden: "Omdat er een blauwe lucht is en een groene boom." Dit is wat concept-based AI doet: het probeert zijn beslissingen uit te leggen met woorden die mensen begrijpen, in plaats van met onbegrijpelijke wiskunde.

Maar tot nu toe hadden deze systemen een groot probleem: ze zagen de wereld als een platte lijst. Voor hen was een "rode appel" en een "groene appel" gewoon twee losse, ongerelateerde dingen. Ze wisten niet dat ze allebei "appels" zijn, en dat appels weer een soort "fruit" zijn. De menselijke geest werkt echter met hiërarchieën (ladders van begrippen), en computers misten die structuur.

Deze paper introduceert een nieuwe manier om AI te leren denken in lagen, zonder dat we duizenden handgeschreven labels nodig hebben. Hier is hoe het werkt, vertaald naar alledaagse taal:

1. Het Probleem: De "Platte" Lijst

Stel je voor dat je een kind leert over dieren. Als je zegt: "Dit is een hond," en "Dit is een kat," leert het kind twee losse feiten. Maar als je zegt: "Dit is een hond, en honden zijn een soort zoogdier," en "Deze hond is een Golden Retriever," krijgt het kind een boomstructuur in zijn hoofd.

Oude AI-modellen hadden alleen de top van de boom (bijv. "hond"). Ze zagen de takken (soorten honden) en de bladeren (de specifieke vacht van deze ene hond) niet. Om dit te leren, moesten mensen vaak duizenden voorbeelden handmatig labelen, wat extreem veel werk is.

2. De Oplossing: De "Matrioska" van Concepten

De auteurs van dit paper (Oscar, Mateo en Mateja) hebben twee nieuwe tools bedacht om dit op te lossen: MLCS en Deep-HiCEM.

De Ontdekker: MLCS (Multi-Level Concept Splitting)

Stel je voor dat je een grote, onontgonnen mijn hebt (de AI die al iets weet, maar niet alles). Je hebt alleen een ruwe kaart met de naam van de mijn ("Goud").

  • De oude methode: Je graaft één laag diep en vindt wat goudklompjes.
  • De nieuwe methode (MLCS): Dit werkt als een matrioska-pop of een verfijnde vergrootglas. De AI begint met het grote concept ("Goud"). Vervolgens kijkt de AI zelf naar de details en zegt: "Oh, wacht eens, dit goud is niet allemaal hetzelfde. Dit stukje is 'ruw goud', en dat stukje is 'gezuiverd goud'." En zelfs diep onder dat 'gezuiverde goud' ziet de AI nog subtiere verschillen, zoals "goud met een blauwe glans".

Het mooie is: de AI doet dit zelf. Mensen hoefden alleen maar het grote woord ("Goud") te geven. De AI ontdekte de sub-categorieën ("ruw", "gezuiverd", "blauw") helemaal alleen door naar de patronen te kijken.

De Bouwer: Deep-HiCEM (De Diepe Hiërarchische Boom)

Nu we deze nieuwe, diepe lagen van begrippen hebben ontdekt, moeten we ze in een model bouwen.

  • De oude modellen waren als een eendimensionale ladder: je kon alleen omhoog of omlaag op één trede.
  • De nieuwe modellen (Deep-HiCEM) zijn als een gigantische, complexe boom of een organisch netwerk. Je kunt nu ingrijpen op elk niveau.

3. Waarom is dit zo cool? (De "Knoppen")

Het echte toverwerk zit in het ingrijpen (intervening).

Stel je voor dat de AI denkt: "Dit is een hond." Maar jij, als mens, kijkt erop en zegt: "Nee, wacht, kijk goed. Dat is geen hond, dat is een wolf."

  • In een oud model zou de AI misschien verwarren raken of je moeten vertrouwen op een heel ander niveau.
  • In dit nieuwe model (Deep-HiCEM) kun je op de knop "Wolf" drukken. Omdat het model een boomstructuur heeft, weet het automatisch: "Als dit een wolf is, dan is het ook een 'hondachtige', maar geen 'hond'." De AI past zijn hele redenering direct aan op basis van jouw correctie.

Dit werkt op elk niveau:

  1. Je kunt zeggen: "Dat is geen fruit." (Hoog niveau)
  2. Je kunt zeggen: "Dat is geen appel." (Midden niveau)
  3. Je kunt zeggen: "Dat is geen rode appel, maar een groene." (Diep niveau)

De AI begrijpt de relaties tussen deze niveaus en past zijn eindoordeel (bijv. "Is dit een gezond ontbijt?") direct aan.

4. Wat zeggen de resultaten?

De auteurs hebben dit getest op verschillende dingen, van het herkennen van vogels tot het analyseren van keukeningrediënten (waar ze "appels" onderscheidden in "rode appels" en "groene appels").

  • Het werkt: De AI ontdekte deze sub-categorieën die de mensen niet eens hadden opgegeven.
  • Het is slim: De AI bleef net zo goed presteren in zijn oorspronkelijke taak (bijv. een vogel herkennen) als de oudere modellen.
  • Het is bruikbaar: Als mensen ingrepen op deze nieuwe, diepe concepten, werd de AI vaak nog slimmer en nauwkeuriger.

Samenvatting in één zin

Deze paper leert AI om niet alleen te kijken naar de "hoofdzaak" (zoals "fruit"), maar om zelf de "takken en bladeren" (zoals "rode appel") te ontdekken en te begrijpen, zodat we met de AI kunnen praten op elk niveau van detail en haar redenering kunnen sturen alsof we samen aan een boom werken in plaats van een lijst afvinken.

Het is een stap in de richting van AI die niet alleen slim is, maar ook begrijpelijk en aanpasbaar voor mensen.