HumanLM: Simulating Users with State Alignment Beats Response Imitation

Dit paper introduceert HumanLM, een nieuw trainingskader dat gebruikerssimulaties verbetert door niet alleen antwoorden te imiteren, maar ook psychologisch onderbouwde, verborgen toestanden te genereren die via versterkingslering zijn uitgelijnd met de werkelijke reacties van gebruikers, wat resulteert in aanzienlijk betere prestaties op de nieuwe Humanual-benchmark.

Shirley Wu, Evelyn Choi, Arpandeep Khatua, Zhanghan Wang, Joy He-Yueya, Tharindu Cyril Weerasooriya, Wei Wei, Diyi Yang, Jure Leskovec, James Zou

Gepubliceerd 2026-03-05
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

De Kern: Van "Nabootsen" naar "Begrijpen"

Stel je voor dat je een acteur wilt huren om een rol te spelen in een toneelstuk. Je hebt twee opties:

  1. De oude methode (Imitatie): Je geeft de acteur een script en zegt: "Herhaal precies wat de vorige acteur zei." De acteur leert dan de woorden, de toon en zelfs de flauwe grappen van de vorige persoon. Maar als de situatie verandert, weet hij niet meer wat hij moet doen, omdat hij alleen de woorden heeft geleerd, niet de mens achter de woorden.
  2. De nieuwe methode (HUMANLM): Je geeft de acteur een diepgaand psychologisch profiel. Je zegt: "Deze persoon is boos, maar probeert het beleefd te houden. Hij is bezorgd om zijn familie en vindt eerlijkheid belangrijk." De acteur denkt dan na over wie deze persoon is en waarom hij zo reageert. Hierdoor kan hij in elke nieuwe situatie een reactie bedenken die echt voelt als die persoon, zelfs als hij die specifieke woorden nog nooit heeft gebruikt.

HUMANLM is precies deze tweede methode voor kunstmatige intelligentie (AI).


Het Probleem: De "Papieren Pop"

Tot nu toe probeerden AI-modellen mensen na te bootsen door te kijken naar wat mensen zeiden (de oppervlakte). Het was alsof je een poppenkastpoppetje probeert te besturen door alleen aan de touwtjes te trekken die de mond bewegen.

  • Het resultaat: De AI zegt misschien wel "Oh nee, wat een ramp!" als er een brand is, maar ze mist de echte emotie. Ze weet niet waarom iemand boos is, of dat iemand eigenlijk sarcastisch is. Ze leert alleen de "woorden" van de pop, niet de "ziel".

De Oplossing: De "Ziel" van de AI

De onderzoekers van Stanford (en anderen) hebben een nieuwe manier bedacht: HUMANLM. In plaats van alleen te kijken naar het antwoord, laten ze de AI eerst denken aan de geestestoestand (de "latent states") van de gebruiker.

Ze hebben de geestestoestand opgedeeld in zes belangrijke dimensies, alsof je een persoon scant met een speciale röntgenfoto:

  1. Geloof: Wat denkt deze persoon dat waar is?
  2. Doel: Wat probeert deze persoon te bereiken met zijn bericht?
  3. Waarden: Wat vindt deze persoon belangrijk? (Bijv. eerlijkheid, vrijheid).
  4. Houding: Is hij het eens of oneens met iets?
  5. Emotie: Is hij boos, verdrietig, of sarcastisch?
  6. Communicatie: Hoe spreekt hij? (Direct, beleefd, grappig, streng).

De creatieve analogie:
Stel je voor dat je een kok bent die een gerecht moet koken voor een specifieke klant.

  • De oude AI kijkt alleen naar het recept van de vorige maaltijd en probeert het exact na te maken. Als de klant vandaag een andere smaak wil, faalt de kok.
  • HUMANLM is de kok die eerst de klant vraagt: "Wat vind je lekker? Ben je hongerig? Heb je een allergie? Wat is je favoriete smaak?" De kok denkt dan na over de ingrediënten (de geestestoestand) en kookt een maaltijd die perfect past bij de klant, zelfs als het een compleet nieuw gerecht is.

Hoe werkt het in de praktijk?

Het proces ziet eruit als een drie-stappen dans:

  1. Het Profiel: De AI krijgt een profiel van de gebruiker (bijv. "Een Amerikaanse vrouw die bezorgd is over klimaatverandering en sarcastisch kan zijn").
  2. De "Gedachten" (Latent States): Voordat de AI een antwoord schrijft, schrijft hij eerst een "gedachtenkrantje". Hij denkt na: "Oké, ik ben het niet eens met dit plan (Houding), ik voel me verdrietig voor de slachtoffers (Emotie), en ik wil mijn boodschap kort en krachtig houden (Communicatie)."
  3. Het Antwoord: Pas daarna schrijft de AI het daadwerkelijke antwoord, gebaseerd op die gedachten.

De AI wordt getraind met een rechter (een andere AI). Deze rechter kijkt niet alleen of het antwoord goed klinkt, maar checkt: "Komt dit antwoord overeen met de gedachten die we net hebben bedacht? Past de boosheid bij de situatie?" Als het antwoord niet past bij de "ziel" van de gebruiker, krijgt de AI een straf. Zo leert hij steeds beter.

Waarom is dit zo belangrijk?

De onderzoekers hebben een enorme testomgeving gemaakt genaamd HUMANUAL (met 26.000 echte mensen en 216.000 reacties uit nieuws, boeken, politiek en chats).

  • Het resultaat: HUMANLM deed het veel beter dan alle andere methoden. Mensen vonden dat de AI-antwoorden eruit zagen als echte mensen. Ze voelden zich "herkend".
  • De toepassing: Dit is superbelangrijk voor ontwikkelaars van apps, politici en bedrijven. Als je wilt weten hoe mensen reageren op een nieuw beleid of een nieuw product, kun je nu een AI gebruiken die echt voelt als een mens, in plaats van een robot die alleen woorden nababbelt.

Samenvatting in één zin

HUMANLM is een slimme manier om AI te leren niet alleen de woorden van mensen na te bootsen, maar eerst de gedachten en gevoelens te begrijpen, zodat de AI in elke situatie reageert als een echt mens met een eigen persoonlijkheid.