Statistical and structural identifiability in representation learning

Deze paper introduceert de concepten van statistische en structurele bijna-identificeerbaarheid voor representatielering, bewijst dat niet-lineaire decoders deze eigenschappen bezitten, en toont aan dat ICA-postprocessing effectief is voor ontrafeling en het verbeteren van downstream-generalisatie.

Walter Nelson, Marco Fumero, Theofanis Karaletsos, Francesco Locatello

Gepubliceerd 2026-03-13
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Titel: Waarom AI-modellen soms "op elkaar lijken" en hoe we ze eindelijk kunnen begrijpen

Stel je voor dat je een groep van tien verschillende kunstenaars vraagt om een foto van een kat te tekenen. Als je de tekeningen van al deze kunstenaars naast elkaar legt, zie je dat ze allemaal ongeveer hetzelfde doen: ze tekenen oren, snorharen en een staart. Maar als je heel precies kijkt, zie je dat de ene kunstenaar de oren iets naar links heeft getekend en de andere iets naar rechts, of dat de ene de staart dikker heeft getekend dan de andere.

In de wereld van kunstmatige intelligentie (AI) gebeurt precies dit. Verschillende AI-modellen die worden getraind om taken te leren (zoals het herkennen van gezichten of het voorspellen van het volgende woord in een zin), ontwikkelen een soort "intern geheugen" of representatie. Het verrassende is: hoewel ze allemaal apart worden getraind, lijken hun interne gedachten steeds meer op elkaar.

Deze paper van Walter Nelson en zijn collega's (geschreven voor de conferentie ICLR 2026) probeert uit te leggen waarom dit gebeurt en hoe we deze interne gedachten eindelijk kunnen "ontwarren" om te begrijpen wat ze eigenlijk denken.

Hier is de uitleg in simpele taal, met een paar creatieve analogieën:

1. Het probleem: Twee soorten "stabielheid"

De auteurs zeggen dat we tot nu toe dachten dat deze stabiliteit één ding was. Maar ze splitsen het op in twee soorten:

  • Statistische identificeerbaarheid (De "Kloon"-test): Als je twee AI-modellen apart traint op dezelfde data, krijgen ze dan ongeveer dezelfde interne gedachten?
    • Analogie: Stel je voor dat je twee verschillende bakkers vraagt om een cake te bakken. Als ze beide een perfecte cake maken, is dat "statistisch identificeerbaar". Ze hebben hetzelfde eindresultaat, ook al hebben ze misschien een ander recept gebruikt of een andere oven.
  • Structurele identificeerbaarheid (De "Waarheid"-test): Komen die interne gedachten overeen met de echte wereld?
    • Analogie: De bakkers maken een cake, maar is het wel een echte cake? Of hebben ze per ongeluk een cake van zeep gebakken? Structurele identificeerbaarheid vraagt: "Begrijpt de AI echt wat een 'kat' is, of heeft hij gewoon een patroon gevonden dat toevallig werkt?"

2. De oplossing: "Bijna" perfect is goed genoeg

Vroeger dachten wetenschappers dat AI-modellen perfect identiek moesten zijn om te werken. De auteurs zeggen: "Nee, dat is onrealistisch." In plaats daarvan introduceren ze het concept van "bijna-identificeerbaarheid".

  • De Analogie van de vervormde spiegel:
    Stel je voor dat je in een spiegel kijkt. Soms is de spiegel een beetje krom (zoals in een kermis). Je ziet jezelf, maar je bent iets breder of smaller.
    • De paper zegt: "Zolang de spiegel maar niet te krom is, kunnen we nog steeds zien wie je bent."
    • Ze bewijzen wiskundig dat als een AI-model goed genoeg is (een beetje "stabiel" in zijn interne logica), we kunnen garanderen dat de interne gedachten van twee verschillende modellen slechts een klein beetje verschillen (zoals een lichte kromming in de spiegel).

3. De magische sleutel: ICA (Het "Ontwarren" van de knoop)

Zelfs als we weten dat de modellen op elkaar lijken, is er nog een probleem: de AI heeft de informatie vaak door elkaar gehaald.

  • Analogie: Stel je voor dat je een glas water en een glas wijn in één grote kan giet. Je ziet nu een mengsel. Je weet dat er water en wijn in zitten, maar je kunt ze niet meer uit elkaar halen.
  • De auteurs zeggen: "Geen probleem! We kunnen een wiskundige truc gebruiken, genaamd ICA (Independent Component Analysis), om de vloeistoffen weer te scheiden."

Ze tonen aan dat als je deze truc toepast op de interne gedachten van de AI, je de "water" (bijvoorbeeld: de vorm van een object) kunt scheiden van de "wijn" (bijvoorbeeld: de kleur of de achtergrond).

4. De echte wereld test: Van cijfertjes tot celkweek

De auteurs hebben dit niet alleen in theorie bewezen, maar ook getest:

  1. Op simpele data: Ze gebruikten een simpele AI om cijfers te herkennen (MNIST). Ze veranderden de "kromming" van de spiegel (de wiskundige eigenschappen van het model) en zagen dat de theorie klopte: hoe minder krom, hoe beter de modellen op elkaar leken.
  2. Op complexe data: Ze keken naar enorme, bestaande AI-modellen (zoals die voor cellen in de biologie).
    • Het probleem: In de biologie zijn foto's van cellen vaak vervuild door "ruis" (bijvoorbeeld: verschillende microscopen of verschillende dagen). Dit is als een vlek op je foto.
    • De oplossing: Ze gebruikten hun "ontwarrende" truc (ICA) op de interne gedachten van de AI.
    • Het resultaat: De AI leerde plotseling het verschil tussen de biologische waarheid (de gezondheid van de cel) en de technische ruis (de microfoon). Hierdoor werd de AI veel beter in het voorspellen van ziektes, zelfs op data die ze nog nooit had gezien.

Samenvatting in één zin

Deze paper laat zien dat AI-modellen van nature op elkaar lijken (statistisch), en dat we met een slimme wiskundige truc (ICA) die interne gedachten kunnen "ontwarren" om de echte waarheid te vinden, zelfs als de modellen niet perfect zijn.

Waarom is dit belangrijk?
Het betekent dat we AI-modellen niet meer als een "zwarte doos" hoeven te zien. We kunnen ze nu vertrouwen en gebruiken om echte problemen op te lossen, zoals het vinden van nieuwe medicijnen of het begrijpen van complexe biologische processen, zonder dat we duizenden jaren aan training nodig hebben. Het is alsof we eindelijk de handleiding hebben gevonden voor de interne taal van de AI.