Can LLMs Discern the Traits Influencing Your Preferences? Evaluating Personality-Driven Preference Alignment in LLMs

Dit paper introduceert het PACIFIC-dataset en een framework dat de prestaties van gepersonaliseerde antwoorden van grote taalmodellen aanzienlijk verbetert door voorkeuren te selecteren die consistent zijn met de afgeleide persoonlijkheidstrekken van de gebruiker.

Tianyu Zhao, Siqi Li, Yasser Shoukry, Salma Elmalaki

Gepubliceerd 2026-03-04
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een zeer slimme, digitale assistent hebt die alles over de wereld weet. Je vraagt hem om een restaurant aan te raden. Hij noemt er tien. Maar jij wilt eigenlijk alleen maar een plek die rustig is, waar je niet wordt gestoord door luidruchtige groepen. De assistent heeft dit niet onthouden, of hij denkt dat je het wel leuk vindt omdat "meestal mensen dat leuk vinden". Hij faalt.

Dit is het probleem dat deze paper aanpakt: Hoe maken we AI-assistenten die écht begrijpen wie jij bent, in plaats van alleen maar wat je zegt te onthouden?

De auteurs van dit onderzoek (Tianyu Zhao en collega's) hebben een slimme oplossing bedacht. Ze zeggen: "Vergeet niet elke kleine voorkeur die een gebruiker ooit heeft genoemd. Dat is te veel werk en vaak verwarrend. Kijk in plaats daarvan naar het karakter van de gebruiker."

Hier is de uitleg, vertaald naar alledaagse taal:

1. Het Probleem: De "Vergetelijke" Assistent

Stel je voor dat je een assistent hebt die een enorme notitieblok vol heeft met jouw voorkeuren: "Ik hou van Italiaans eten," "Ik vind horrorfilms eng," "Ik wil niet te vroeg opstaan."
Na een paar dagen vraagt de assistent: "Wat wil je vanavond doen?"
Hij kijkt in zijn notitieblok, maar hij is verward. Misschien heb je gisteren gezegd dat je moe was, en vandaag dat je energie hebt. Of misschien heeft hij een voorkeur vergeten. Het resultaat? Hij raadt verkeerd.
In de digitale wereld noemen we dit "ruis". Als je te veel losse feiten probeert te onthouden, raakt de assistent in de war.

2. De Oplossing: De "Karakter-Compaan"

De auteurs zeggen: "Wat als we de assistent niet laten kijken naar wat je zegt, maar naar wie je bent?"
Ze gebruiken een bekend psychologisch model genaamd Big Five (OCEAN). Dit zijn vijf eigenschappen die ieders persoonlijkheid beschrijven:

  • Openheid (Ben je avontuurlijk of hou je van traditie?)
  • Conscientieusheid (Ben je gestructureerd of losjes?)
  • Extroversie (Ben je een gezelschapsmens of een eenzame wolf?)
  • Aangenaamheid (Ben je meegaand of rechtstreeks?)
  • Neuroticisme (Ben je snel bezorgd of juist heel kalm?)

De Analogie:
Stel je voor dat je een reisagent hebt.

  • De oude manier: De agent probeert elke plek te onthouden die je ooit hebt genoemd. Als je zegt "Ik hou van zee" en later "Ik haat zee", raakt hij in paniek.
  • De nieuwe manier (PACIFIC): De agent kijkt naar je persoonlijkheid. Hij ziet dat je een "Avontuurlijke Zee-ontdekker" bent (hoge Openheid, lage Neuroticiteit). Hij weet dan: "Ah, deze persoon houdt van risico's en nieuwe ervaringen!" Zelfs als je niet specifiek zegt "Ik wil naar een onbekend eiland", raadt hij dat wel goed.

3. Wat hebben ze gedaan? (Het PACIFIC-project)

Ze hebben een nieuwe "speelgrond" (dataset) gemaakt genaamd PACIFIC.

  • Ze hebben 1.200 voorbeelden gemaakt van mensen die vragen stellen (bijv. "Welke koffiezetapparaat moet ik kopen?").
  • Ze hebben gekeken welke antwoorden bij welk karakter passen.
  • Ze hebben getest of een AI-model deze patronen kan zien.

Het resultaat is verbazingwekkend:

  • Als de AI gewoon willekeurige voorkeuren krijgt, raadt hij maar 29% van de keren goed.
  • Als de AI eerst het karakter van de gebruiker begrijpt en daarop de voorkeuren selecteert, raadt hij 76% van de keren goed!

Dat is alsof je van een gokker een slimme strateeg maakt.

4. Hoe werkt het in de praktijk?

De paper beschrijft een paar manieren om dit te doen:

  • De "Herinnering": Je zegt tegen de AI: "Kijk eens naar de persoonlijkheid van deze gebruiker, die blijkt uit zijn eerdere vragen." Dit helpt de AI om de juiste antwoorden te kiezen.
  • De "Zoeker": Als de AI niet weet wat de gebruiker wil, zoekt hij in een database naar voorkeuren die bij dat specifieke karakter passen.

5. Een belangrijke waarschuwing (De "Netjesheid")

De onderzoekers ontdekten ook een klein probleem. AI-modellen zijn vaak zo "netjes" en "positief" ingesteld (door training met mensen) dat ze moeite hebben met bepaalde karaktereigenschappen.
Bijvoorbeeld: Als iemand zegt "Ik hou niet van risico's" (wat een normale, rustige voorkeur is), denkt de AI soms: "Oh, dat klinkt saai of angstig, ik ga liever iets spannends aanraden."
De AI probeert te vaak te "behagen" in plaats van echt te luisteren naar wie de gebruiker is. Dit noemen ze "sociale wenselijkheid".

Conclusie

Deze paper leert ons dat we AI niet hoeven te laten onthouden als een computer met een geheugen van 1000 pagina's. In plaats daarvan moeten we AI leren menselijk te denken: "Wat voor soort persoon is dit, en wat past bij dat karakter?"

Als we dit doen, krijgen we assistenten die niet alleen slim zijn, maar ook begrijpend. Ze voelen je aan, net als een goede vriend die weet dat jij niet van drukte houdt, ook al heb je het niet expliciet gezegd.

Kort samengevat:
Stop met het onthouden van elke losse zin. Begin met het begrijpen van de ziel (het karakter) van de gebruiker. Dan raadt de AI veel beter wat je wilt.