You Only Fine-tune Once: Many-Shot In-Context Fine-Tuning for Large Language Models

Dit paper introduceert Many-Shot In-Context Fine-tuning (ManyICL), een methode die de prestaties van grote taalmodellen aanzienlijk verbetert door in-voorbeelden te behandelen als trainingsdoelen, waardoor de kloof met dedicated fine-tuning wordt overbrugd en vergeten wordt verminderd.

Wenchong He, Liqian Peng, Zhe Jiang, Alex Go

Gepubliceerd 2026-03-04
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een zeer slimme, maar nog wat onervaren kok hebt: een Grote Taalmodel (LLM). Deze kok kan al heel veel gerechten maken door gewoon naar een recept te kijken (dit noemen we In-Context Learning). Maar als je hem een heel specifiek, moeilijk gerecht wilt laten koken, moet je hem vaak eerst apart trainen.

De huidige manier om dit te doen, is als volgt:

  • Wil je een Italiaanse chef? Dan train je de kok alleen op Italiaans eten.
  • Wil je een Aziatische chef? Dan train je een nieuwe versie van de kok alleen op Aziatisch eten.
  • Wil je een Mexicaanse chef? Dan heb je weer een derde kok nodig.

Dit is duur, tijdrovend en inefficiënt. Je hebt voor elke taak een eigen "gespecialiseerde kok" nodig.

Deze paper introduceert een nieuwe methode: "Many-Shot In-Context Fine-Tuning" (ManyICFT).

Hier is hoe het werkt, vertaald naar alledaagse taal:

1. Het Probleem: Te weinig voorbeelden

Stel je voor dat je de kok een recept geeft met slechts 3 voorbeeldgerechten (dit is Few-Shot). Hij probeert het na te maken, maar hij is nog niet perfect. Hij mist de diepte van het patroon.
De auteurs zeggen: "Waarom geven we hem niet honderden voorbeelden in één keer?"
Dit noemen ze Many-Shot. In plaats van 3 voorbeelden, geven ze de kok 500 of zelfs 1000 voorbeelden van hetzelfde type gerecht in één lange lijst.

2. De Innovatie: "Mask All Targets" (Alle antwoorden verbergen)

Hier komt de echte truc.

  • De oude manier (Mask Last Target): Je geeft de kok 500 voorbeelden, maar je laat hem alleen het laatste antwoord raden. De eerste 499 voorbeelden zijn slechts "lezen" en tellen niet echt mee voor zijn training. Dit is als een student die 500 pagina's leest, maar alleen de laatste vraag op het examen mag beantwoorden.
  • De nieuwe manier (Mask All Targets): De auteurs zeggen: "Nee, we laten de kok elk antwoord in die lange lijst raden!"
    • Hij moet het antwoord van voorbeeld 1 raden (op basis van de introductie).
    • Hij moet het antwoord van voorbeeld 2 raden (op basis van de introductie + voorbeeld 1).
    • Hij moet het antwoord van voorbeeld 3 raden (op basis van de introductie + voorbeeld 1 + 2).
    • En zo verder tot voorbeeld 500.

De Analogie:
Stel je voor dat je een speler traint voor een videospel.

  • Oude methode: Je laat hem 100 levels spelen, maar hij krijgt punten alleen als hij het laatste level haalt. De eerste 99 levels zijn zomaar "kijken".
  • Nieuwe methode: Je laat hem 100 levels spelen, maar hij krijgt punten voor elk level dat hij succesvol doorloopt. Hij leert dus continu, stap voor stap, hoe hij het spel moet spelen.

Dit maakt het leren veel efficiënter en krachtiger.

3. Het Resultaat: "Eén keer trainen, voor altijd klaar"

Met deze methode (ManyICFT) trainen ze de kok één keer op een enorme, diverse verzameling van duizenden voorbeelden van alle soorten gerechten (koken, bakken, grillen, etc.) tegelijk.

Het resultaat?

  • Je hebt nu één superkok.
  • Wil je nu een Italiaans gerecht? Je geeft hem gewoon een lange lijst met Italiaanse voorbeelden in het gesprek, en hij maakt het perfect.
  • Wil je een Aziatisch gerecht? Je geeft hem een lange lijst met Aziatische voorbeelden, en hij maakt dat ook perfect.
  • Je hoeft geen nieuwe kok te trainen voor elke nieuwe taak. Je gebruikt gewoon dezelfde kok en past de "instructies" (de voorbeelden) aan.

Waarom is dit zo belangrijk?

  1. Bespaart tijd en geld: In plaats van 1000 verschillende koks te trainen (één per taak), train je er maar één. Dat is 14 keer sneller en goedkoper.
  2. Vergeet niets: Vaak vergeten koks wat ze eerder leerden als je ze iets nieuws leert (dit heet "catastrophic forgetting"). Omdat deze methode de kok leert om patronen te herkennen in lange lijsten, vergeet hij zijn oude vaardigheden niet. Hij blijft een veelzijdige kok.
  3. Werkt zelfs met onbekende gerechten: Zelfs als je de kok een heel nieuw type gerecht geeft waar hij nooit eerder over heeft getraind, kan hij het vaak wel maken als je hem genoeg voorbeelden geeft in het gesprek.

Kortom:
Deze paper zegt: "Stop met het trainen van duizenden gespecialiseerde modellen. Train één model dat zo goed is in het leren van patronen uit lange lijsten met voorbeelden, dat je hem voor elke taak kunt gebruiken door gewoon een lange lijst met voorbeelden te geven. Het is de ultieme 'één keer doen, voor altijd klaar'-oplossing."