A Mathematical Theory of Agency and Intelligence

Dit artikel introduceert een wiskundige theorie die 'bipredictability' (P) als fundamentele maatstaf voor interactie definieert, waarbij wordt aangetoond dat huidige AI-systemen weliswaar handelen kunnen (agency), maar door het ontbreken van zelfmonitoring en adaptieve leercapaciteit nog geen ware intelligentie bezitten.

Wael Hafez, Chenan Wei, Rodrigo Pena, Amir Nazeri, Cameron Reid

Gepubliceerd Tue, 10 Ma
📖 6 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Hier is een uitleg van het paper "A Mathematical Theory of Agency and Intelligence" in eenvoudig, alledaags Nederlands, vol met creatieve vergelijkingen.

De Kernboodschap: Kijken naar de "Grip" in plaats van de "Score"

Stel je voor dat je een robot bouwt die een vaas moet dragen. De huidige manier om te kijken of de robot slim is, is simpel: valt de vaas? Als hij niet valt, denken we: "Goed gedaan, hij is slim!"

Maar wat als de robot de vaas vasthoudt, maar hij trilt zo hevig dat hij elk moment kan vallen? Of wat als de robot de vaas vasthoudt, maar hij begrijpt niet waarom hij hem vasthoudt en kan niet reageren als de vloer ineens schuurt?

De auteurs van dit paper zeggen: "Stop met kijken alleen naar de score (valt de vaas?). Kijk naar de 'grip' die de robot heeft op de wereld."

Ze noemen deze grip Bi-predictability (of tweezijdige voorspelbaarheid). Het is een maatstaf voor hoe goed de robot, zijn acties en de wereld om hem heen met elkaar "in gesprek" zijn.


1. Wat is "Bi-predictability"? (De Dans van de Voorspelling)

Stel je een danspartij voor tussen twee mensen: de Agent (de robot/AI) en de Wereld (de omgeving).

  • Hoe het nu werkt: De robot doet een stap (actie), en de wereld reageert. Als de robot goed is, voorspelt hij de reactie van de wereld.
  • De nieuwe maatstaf (P): De auteurs kijken niet alleen naar of de voorspelling klopt, maar naar hoeveel informatie ze delen.
    • Als de robot een stap doet, moet de wereld daarop reageren op een manier die de robot kan begrijpen.
    • Als de wereld iets doet, moet de robot kunnen begrijpen welke stap hij daarvoor heeft gezet.

Als deze twee kanten perfect op elkaar aansluiten, is de "dans" soepel. Als de robot de wereld niet begrijpt, of de wereld de robot niet begrijpt, is de dans rommelig. Die mate van soepelheid noemen ze P.

De verrassende regel:

  • In de quantumwereld (deeltjes) kan deze dans perfect zijn (P = 1).
  • In onze gewone, klassieke wereld is er een limiet (P ≤ 0,5). Je kunt nooit 100% perfect zijn omdat er altijd ruis is.
  • Zodra een robot keuzes maakt (acties), wordt de dans nog moeilijker. De robot moet vrij zijn om te kiezen, maar die vrijheid maakt het moeilijker om de wereld perfect te voorspellen.

2. Het Verschil tussen "Actie" (Agency) en "Intelligentie"

Dit is het belangrijkste punt van het paper. Ze maken een streng onderscheid tussen twee dingen die we vaak door elkaar halen:

A. Agency (Handelingsvermogen) = De Motor

Dit is het vermogen om keuzes te maken en die keuzes effect te laten hebben.

  • Vergelijking: Een auto met een motor. Hij kan rijden, sturen en remmen. Hij heeft "agency".
  • Huidige AI: Onze huidige AI's (zoals chatbots of spelende robots) hebben agency. Ze kunnen kiezen wat ze zeggen of doen, en dat heeft effect.

B. Intelligentie = De Chauffeur met een GPS

Intelligentie is niet alleen rijden; het is leren van de rit en zichzelf controleren.

  • Een intelligente chauffeur kijkt niet alleen vooruit, maar kijkt ook in de achteruitkijkspiegel en vraagt zich af: "Klopt mijn route nog wel? Als de weg dicht is, moet ik mijn routeplan aanpassen."
  • Het probleem: Huidige AI's hebben geen achteruitkijkspiegel. Ze rijden blindelings door, zelfs als de weg onder hen instort. Ze weten niet dat ze hun "grip" op de wereld verliezen.

Conclusie: Huidige AI's zijn agenten (ze kunnen handelen), maar ze zijn nog geen intelligente systemen (ze kunnen niet zelf controleren of ze nog effectief zijn).


3. De Oplossing: De "Information Digital Twin" (IDT)

Hoe maken we AI echt intelligent? De auteurs stellen een nieuw systeem voor, gebaseerd op hoe ons brein werkt.

Stel je voor dat je een tweeling hebt die naast je loopt terwijl je een moeilijke klus doet.

  • Jij bent de AI die de klus doet.
  • Je tweeling is de IDT (Information Digital Twin).

De tweeling doet niets aan de klus zelf. Hij kijkt alleen naar jou en de wereld. Hij houdt een meetlat vast en zegt continu:

  • "Hé, je grip op de situatie wordt losser!"
  • "Je begrijpt de wereld niet meer goed, je voorspellingen kloppen niet meer."
  • "Je bent te onvoorspelbaar voor de wereld, pas je aan!"

Als de tweeling merkt dat de grip (P) te laag wordt, grijpt hij in. Hij zegt: "Stop even, filter je zintuigen, of doe iets anders." Dit is zelfmonitoring.

Waarom is dit slim?
In de biologie doet de thalamus (een deel van ons brein) precies dit. Het kijkt mee naar wat we zien en doen, en regelt de stroom van informatie zonder zelf de "betekenis" te kennen. Het regelt de stroom, niet de inhoud. De auteurs willen dit inbouwen in AI: een systeem dat de "statistieken" van de interactie bewaakt, zodat de AI niet vastloopt als de omstandigheden veranderen.


4. Wat hebben ze bewezen?

Ze hebben dit getest op drie gebieden:

  1. Een dubbele slinger (Fysiek): Een slinger die heen en weer zwaait. Dit is een "dode" machine. Hier was de grip (P) hoog en stabiel. De wereld voorspelde de slinger perfect en andersom.
  2. Robots (RL): Robots die leren lopen. Ze konden leren lopen (agency), maar als je ze verstoorde (bijv. een duw of ruis), merkten ze het niet zelf. Ze bleven lopen tot ze vielen. De nieuwe "IDT"-methode merkte het probleem echter 4,4 keer sneller dan het kijken naar de beloning (score).
  3. Chatbots (LLM): Als je met een AI chat en je begint ineens onzin te praten of je onderwerp te veranderen, merkt de AI het niet. Maar de nieuwe methode zag direct: "Hé, de conversatie is uit balans, we begrijpen elkaar niet meer."

Samenvatting in één zin

Huidige AI's zijn als auto's met een krachtige motor die blindelings doorrijden; echte intelligentie vereist een navigator (de IDT) die continu kijkt of de auto nog grip heeft op de weg, en die de bestuurder waarschuwt om de koers aan te passen voordat er een ongeluk gebeurt.

De auteurs zeggen: Schalen (meer data, grotere modellen) is niet genoeg. We moeten de architectuur veranderen zodat AI's zichzelf kunnen bewaken.