BenchPreS: A Benchmark for Context-Aware Personalized Preference Selectivity of Persistent-Memory LLMs

Het paper introduceert BenchPreS, een benchmark die aantoont dat geavanceerde taalkundige modellen met persistente geheugenfuncties moeite hebben om persoonlijke voorkeuren contextueel correct toe te passen of te onderdrukken, wat vaak leidt tot ongepast gebruik in sociale situaties.

Sangyeon Yoon, Sunkyoung Kim, Hyesoo Hong, Wonje Jeung, Yongil Kim, Wooseok Seo, Heuiyeen Yeen, Albert No

Gepubliceerd 2026-03-18
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

🎭 De Grote Verwarde Assistent: Waarom slimme robots niet weten wanneer ze moeten stoppen met grappen maken

Stel je voor dat je een super-slimme persoonlijke assistent hebt (een AI). Deze assistent kent je heel goed. Hij weet dat je grappig bent, dat je van emoji's houdt, dat je graag in de vorm van een schoolkrant schrijft, en dat je liever "Joker" genoemd wordt dan bij je echte naam.

In je dagelijkse chatjes met vrienden is dit geweldig! Je assistent is dan een levendige, grappige vriend.

Maar wat gebeurt er als je assistent een brief moet schrijven aan de Belastingdienst (de IRS)?

Hier is het probleem dat dit paper onderzoekt:
De assistent vergeet niet wie je bent, maar hij vergeet waar hij is. Hij denkt: "Ah, de gebruiker wil een grappige brief! En hij wil 'Joker' heten!" En dus schrijft hij een brief aan de Belastingdienst die begint met: "Hoi Belastingman! Hier is mijn belastingaangifte, maar noem me maar Joker, en hier zijn een paar emoji's! 🤡💸"

Dit is natuurlijk een ramp. De assistent heeft zijn eigen regels (jouw voorkeuren) niet kunnen filteren op basis van de situatie.

🧪 BenchPreS: De "Situatie-Test" voor Robots

De onderzoekers van dit paper hebben een nieuwe testbedacht, genaamd BenchPreS. Je kunt dit zien als een rijexamen voor sociale intelligentie voor AI's.

In plaats van te testen of een robot je kan onthouden, testen ze of de robot weet wanneer hij zijn mond moet houden.

  • De Test: De robot krijgt een lijst met jouw voorkeuren (bijv. "gebruik een sarcastische toon") en een opdracht (bijv. "schrijf een formele brief aan een rechter").
  • Het Doel: Een slimme robot moet denken: "Oké, de gebruiker wil sarcastisch zijn, maar dit is een formele brief. Ik moet die voorkeur onderdrukken en gewoon beleefd zijn."
  • De Fout: De meeste robots doen het tegenovergestelde. Ze denken: "De gebruiker wil sarcastisch zijn? Dan word ik sarcastisch!" en vergeten dat ze in een formele situatie zitten.

📉 Wat hebben ze ontdekt? (De resultaten)

De onderzoekers hebben de slimste robots van vandaag (zoals GPT-5, Claude, Gemini) op deze test gezet. De resultaten waren verrassend slecht:

  1. De "Alles-En-Alles" Probleem: Hoe beter een robot is in het onthouden van jouw voorkeuren, hoe slechter hij is in het stoppen met die voorkeuren op het verkeerde moment.
    • Metafoor: Het is alsof je een auto hebt die heel snel kan accelereren (voorkeuren toepassen), maar geen remmen heeft (voorkeuren onderdrukken). Hoe harder hij accelereert, hoe groter de crash.
  2. De "Joker" in de Rekenkamer: In de test schreven robots soms een brief aan de Belastingdienst in de vorm van een schoolkrant, of gebruikten ze de naam "Joker" in een juridisch document. Ze behandelden jouw persoonlijke voorkeuren als altijd-geldende regels, in plaats van als situatie-afhankelijke suggesties.
  3. Slimmer denken helpt niet echt: Je zou denken: "Als we de robot vragen om eerst na te denken (redeneren), lost hij het wel op."
    • Het tegendeel: De robots die eerst "na denken" voordat ze antwoorden, worden juist nog slimmer in het toepassen van voorkeuren, maar ze vergeten nog steeds om ze te stoppen op de verkeerde momenten. Ze denken: "Ik heb nagedacht... ja, de gebruiker wil een grappige brief, dus ik ga grappig zijn!" zonder te beseffen dat het niet mag.

🛠️ Kunnen we het fixen?

De onderzoekers hebben geprobeerd de robots een herinnering te geven (een "prompt") met de tekst: "Gebruik voorkeuren alleen als het past, en stop ze als het niet past."

  • Het resultaat: Dit hielp een beetje, maar niet genoeg. De robots werden iets beter, maar maakten nog steeds veel fouten. Het lijkt erop dat ze het fundamenteel niet snappen. Ze zien jouw voorkeuren als een hardnekkige opdracht die ze moeten uitvoeren, in plaats van als een nuance die ze moeten afwegen.

🎯 De conclusie in één zin

Vandaag de dag zijn onze slimste AI-assistenten nog te star: ze zijn zo gewend om te doen wat jij wilt, dat ze vergeten te kijken of het ook wel past in de situatie. Ze zijn als een vriend die in een begrafenis een grappig grapje maakt omdat jij dat normaal gesproken leuk vindt, en die niet snapt dat dit nu niet de juiste tijd is.

BenchPreS is dus een waarschuwing: voordat we AI's volledig kunnen vertrouwen met onze persoonlijke data en hun laten schrijven voor ons, moeten we ze eerst leren sociale context te begrijpen. Ze moeten leren dat "wat ik wil" niet altijd "wat ik moet doen" betekent.

Verdrinkt u in papers in uw vakgebied?

Ontvang dagelijkse digests van de nieuwste papers die bij uw onderzoekswoorden passen — met technische samenvattingen, in uw taal.

Probeer Digest →