Test-Time Adaptation via Many-Shot Prompting: Benefits, Limits, and Pitfalls

Dit artikel onderzoekt de effectiviteit, beperkingen en valkuilen van testtijd-adaptatie via veel-shot prompting bij grote taalmodellen, en concludeert dat deze methode vooral nuttig is voor gestructureerde taken maar gevoelig is voor de selectiestrategie en vaak beperkt baat biedt bij open-ended generatie.

Shubhangi Upasani, Chen Wu, Jay Rainton, Bo Li, Changran Hu, Qizheng Zhang, Urmish Thakker

Gepubliceerd 2026-03-09
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat een kunstmatige intelligentie (zoals een slimme chatbot) een examen moet afleggen. Normaal gesproken studeert deze AI maandenlang, leert uit duizenden boeken en past zijn "hersenen" (de gewichten in het model) aan om slim te worden.

Maar wat als je die AI niet meer mag laten studeren? Wat als je hem alleen mag helpen tijdens het examen, door hem een paar voorbeelden te geven op het moment zelf?

Dit is wat onderzoekers Test-Time Adaptation noemen. In dit specifieke paper kijken ze naar een methode die ze "Many-Shot Prompting" noemen. Laten we dit uitleggen met een paar creatieve vergelijkingen.

1. Het idee: De "Cursusboek" in plaats van de "Hersenen"

Stel je voor dat de AI een student is die een examen doet.

  • Normaal leren: De student studeert maandenlang, zodat de kennis in zijn hoofd zit.
  • Many-Shot Prompting: De student mag tijdens het examen een dik boek openen met honderden voorbeelden van soortgelijke vragen en de juiste antwoorden. Hoe meer voorbeelden hij in het boek heeft, hoe beter hij hoopt te doen.

De onderzoekers wilden weten: Hoeveel voorbeelden moet je erin stoppen voordat het helpt? En is er een punt waarop het juist averechts werkt?

2. Wat hebben ze ontdekt? (De drie belangrijkste lessen)

A. Meer is niet altijd beter (De "Verdovende" Les)

Stel je voor dat je een vriend vraagt om een recept te volgen.

  • Als je hem 1 of 2 voorbeelden geeft, helpt dat enorm. Hij begrijpt de stijl.
  • Als je hem 50 voorbeelden geeft, wordt hij nog slimmer.
  • Maar als je hem 500 voorbeelden geeft, raakt hij in paniek. De pagina's vliegen voorbij, hij kan niet meer focussen en begint te twijfelen.

De bevinding: Voor strakke taken (zoals "dit is een klacht over een bank, dat is een vraag over een lening") werkt het heel goed om veel voorbeelden te geven. Maar er is een verzadigingspunt. Na ongeveer 50 tot 70 voorbeelden per categorie stopt de verbetering. Meer toevoegen helpt niet meer, en kan zelfs de prestaties vertragen omdat de AI "verdwijnt" in de massa van informatie.

B. De volgorde en keuze zijn cruciaal (De "Schaakbord" Les)

Stel je voor dat je een schaakspeler wilt helpen.

  • Slechte strategie: Je gooit willekeurige schaakpartijen in zijn boek, ongeacht of ze relevant zijn voor de huidige zet.
  • Goede strategie: Je kiest alleen de partijen die lijken op de zet die hij nu moet doen.

De bevinding: Het maakt enorm uit welke voorbeelden je kiest en in welke volgorde.

  • Als je alleen voorbeelden kiest die lijken op de vraag (zoekopdracht), werkt het goed aan het begin.
  • Als je echter te veel focus legt op "lijken", wordt het boek saai en herhalend.
  • De beste strategie bleek een mix: kies voorbeelden die relevant zijn, maar zorg dat ze ook divers zijn (niet allemaal hetzelfde). En zorg dat je niet per se elke categorie even vaak laat voorkomen, maar juist de meest nuttige kiest.

C. De grootte van de "Student" telt (De "Grootte van de Geheugenbank" Les)

Ze testten dit met twee soorten AI's: een kleinere (8B) en een gigantische (70B).

  • De grote AI is als een genie. Hij kan direct duizenden voorbeelden verwerken en er slimme patronen uit halen. Hij ziet het grote plaatje snel.
  • De kleine AI is als een slimme leerling, maar hij heeft meer tijd en meer voorbeelden nodig om hetzelfde te snappen.
  • Interessant: Als je de kleine AI enorme hoeveelheden voorbeelden geeft, kan hij de grote AI bijna inhalen! Maar de grote AI wordt soms juist verward als je te veel informatie geeft (over-conditioning).

3. Wanneer werkt het wel, en wanneer niet?

De onderzoekers ontdekten dat het werkt als een gereedschapskist:

  • Werkt geweldig voor: Strakke taken. Denk aan het sorteren van e-mails, het uittrekken van specifieke data uit een tekst, of het beantwoorden van meerkeuzevragen. Hier zijn de regels duidelijk, en extra voorbeelden helpen de AI om de "regels" van het spel te begrijpen.
  • Werkt slecht voor: Open-ended creatieve taken. Denk aan het vertalen van een gedicht of het schrijven van een verhaal. Hier zijn de regels vaag. Extra voorbeelden helpen niet veel, omdat de AI al weet hoe hij moet schrijven. Het toevoegen van duizenden voorbeelden maakt het proces alleen maar rommelig.

Conclusie in één zin

Het geven van duizenden voorbeelden aan een AI tijdens het "examen" is als het geven van een dik naslagwerk: het helpt enorm als je de juiste pagina's kiest en de juiste hoeveelheid neemt, maar als je het boek te dik maakt of de verkeerde pagina's erin plakt, raakt de AI in de war en doet hij het juist slechter.

De boodschap: We hoeven niet altijd de AI's groter te maken; soms is het slimmer om ze tijdens het gebruik de juiste "hulpbronnen" te geven, maar we moeten heel voorzichtig zijn met hoeveel en welke hulpbronnen dat zijn.