Rigidity in LLM Bandits with Implications for Human-AI Dyads

Dit onderzoek toont aan dat taalmodellen in bandietproeven rigide beslissingstendensen vertonen door lage leersnelheden en hoge omgekeerde temperaturen, wat leidt tot starre exploitatiepatronen die de interactie tussen mens en AI kunnen beïnvloeden.

Haomiaomiao Wang, Tomás E Ward, Lili Zhang

Gepubliceerd Tue, 10 Ma
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

De Stijve AI: Waarom Slimme Robots Soms Weigeren Om te Leren

Stel je voor dat je een groep zeer intelligente robots hebt die je helpen met het kiezen van een route naar een schat. Je geeft ze een spelletje: er zijn twee planeten, Planeet X en Planeet Y. Op de ene planeet vind je soms goud, op de andere ook. De robots moeten leren welke planeet het beste is door er steeds heen te gaan.

Dit is precies wat onderzoekers hebben gedaan met de nieuwste "Large Language Models" (LLM's), zoals DeepSeek, GPT-4 en Gemini. Ze hebben deze AI's getest in een simpele versie van een gokspel (een "bandit"-experiment) om te zien hoe ze beslissingen nemen.

Hier is wat ze ontdekten, vertaald in begrijpelijke taal:

1. Het Gokspel: Twee Planeten

De AI's kregen twee scenario's:

  • Scenario A (Gelijk): Beide planeten geven even vaak goud. Een slimme speler zou wisselen of willekeurig kiezen.
  • Scenario B (Ongebalanceerd): Planeet X geeft heel vaak goud, Planeet Y bijna nooit. Een slimme speler zou bijna altijd naar X gaan, maar af en toe Y checken om zeker te weten dat X nog steeds de beste is.

2. Het Probleem: De AI is "Stijf" als een Stenen Beeld

Wat de onderzoekers zagen, was verrassend en een beetje eng: De AI's waren te stug.

  • In het gelijke scenario: Als de AI in de eerste ronde per ongeluk Planeet X koos en daar goud vond, bleef hij daar vastzitten. Hij dacht: "Aha, X is de beste!" en ging daarvoor door, zelfs als Y net zo goed was. Hij luisterde niet naar de kans dat het toeval was. Hij werd hardnekkig.
  • In het ongelijk scenario: Toen X duidelijk de beste was, ging de AI daar wel naartoe, maar hij deed het zo vastberaden dat hij nooit meer Planeet Y checkte. Hij verloor de flexibiliteit om te zeggen: "Misschien is de situatie veranderd?"

Het was alsof je een robot een kaart geeft en hij zegt: "Ik ga naar links." Zelfs als je zegt: "Kijk, rechts is de weg nu beter," blijft hij naar links lopen omdat hij zijn eerste keuze te hecht omarmt.

3. De Oorzaak: Een Gebrek aan "Nieuwsgierigheid"

De onderzoekers keken onder de motorkap (met wiskundige modellen) om te zien waarom dit gebeurde. Ze ontdekten twee dingen:

  1. De AI leert te traag: Als de AI een fout maakt (bijvoorbeeld naar Y gaan en geen goud vinden), past hij zijn strategie nauwelijks aan. Hij vergeet zijn fouten te snel, maar onthoudt zijn eerste succes te lang.
  2. De AI is te zeker van zichzelf: De AI kiest alsof hij een god is die alles weet. Hij twijfelt bijna nooit. In de wereld van AI heet dit een "hoge temperatuur" (niet warmte, maar zekerheid). Hij kiest niet uit nieuwsgierigheid, maar uit een starre overtuiging.

De Analogie van de Muziek:
Stel je voor dat je een DJ bent die nummers draait.

  • Een menselijke DJ zou proberen een nieuw nummer als het oude niet werkt, of afwisselen om de sfeer te houden.
  • Deze AI-DJ pakt het eerste nummer dat hij leuk vindt en draait dat 100 keer achter elkaar, zelfs als het publiek begint te klappen voor een ander genre. Hij is zo vastberaden dat hij de rest van de wereld negeert.

4. Verandert het als je de "Knoppen" Draait?

De onderzoekers probeerden de AI's "losser" te maken door hun instellingen (zoals temperature en top-p) aan te passen. Dit is alsof je de DJ vraagt: "Wees een beetje meer creatief, draai willekeurige nummers."

Het resultaat? De AI's werden iets chaotischer, maar niet slimmer. Ze maakten meer fouten in het formaat van hun antwoord (bijvoorbeeld "Ik kies Y" in plaats van alleen "Y"), maar hun onderliggende gedrag bleef stijf. Ze werden niet echt nieuwsgierig; ze werden gewoon onzeker en onbetrouwbaar.

5. Waarom is dit belangrijk voor ons?

Dit heeft grote gevolgen voor hoe wij met AI omgaan in de toekomst.

  • De "Adviseur" die je niet moet vertrouwen: Als een AI je advies geeft (bijvoorbeeld over een medische diagnose of een investering), kan hij zo zeker van zijn eerste idee zijn dat hij je overtuigt om ook dat idee te volgen, zelfs als het fout is.
  • De Val van de "Eerste Indruk": Omdat AI's zo stijf zijn, kan de volgorde van je vraag (de "prompt") bepalen wat het antwoord is. Als je de AI eerst vraagt over optie A, zal hij waarschijnlijk bij optie A blijven, zelfs als optie B beter is.
  • Mensen worden ook beïnvloed: Als wij zien dat de AI zo zelfverzekerd is, gaan wij dat ook denken. We gaan denken: "De robot weet het wel, dus ik ga ook niet twijfelen." Dit kan leiden tot slechte beslissingen in teams van mens en machine.

Conclusie

Deze studie laat zien dat AI's, hoe slim ze ook lijken, soms geestelijke traagheid vertonen. Ze zijn niet goed in het balanceren van "weten wat je al weet" versus "nieuw leren". Ze blijven vastzitten in hun eerste ideeën, alsof ze een spijker in de muur hebben geslagen en weigeren hem weer los te maken.

Voor de toekomst betekent dit: we moeten voorzichtig zijn met AI-advies. We moeten onthouden dat deze slimme machines soms net zo hardnekkig kunnen zijn als een koppig kind dat weigert zijn favoriete speeltje los te laten, zelfs als er een beter speeltje voorbij komt.