Learning What Matters: Prioritized Concept Learning via Relative Error-driven Sample Selection

Het paper introduceert PROGRESS, een efficiënt kader dat visueel-taalmodellen in staat stelt om tijdens het trainen dynamisch de meest leerzame voorbeelden te selecteren op basis van relatieve fouten, waardoor ze met minder data en rekenkracht betere resultaten behalen dan bestaande methoden.

Shivam Chandhok, Qian Yang, Oscar Manas, Kanishk Jain, Leonid Sigal, Aishwarya Agrawal

Gepubliceerd 2026-02-26
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een kind wilt leren om te lezen en te rekenen. De oude manier was om het kind een enorme stapel boeken te geven, van de allereenvoudigste prentenboeken tot de zwaarste universitaire verhandelingen, en te zeggen: "Lees alles, en als je klaar bent, ben je slim."

Dit is wat er momenteel gebeurt met Vision-Language Models (VLMs) – slimme computers die beelden en tekst begrijpen. Om deze modellen slim te maken, trainen onderzoekers ze met miljoenen voorbeelden. Dat kost echter ontzettend veel tijd, geld en energie. Bovendien zit er in die enorme stapel veel "rommel": voorbeelden die het kind al kent, of voorbeelden die zo moeilijk zijn dat het kind er nu nog niets van begrijpt.

De auteurs van dit paper hebben een nieuwe manier bedacht, genaamd PROGRESS. Het is alsof je een slimme leraar hebt die precies weet wat het kind op dat moment het beste kan leren.

Hier is hoe het werkt, vertaald naar alledaagse taal:

1. De "Leraar" die zelf kijkt wat er nodig is

In plaats van dat een mens of een andere computer vooraf bepaalt welke boeken het kind moet lezen, kijkt PROGRESS naar het kind zelf.

  • Het idee: Het model vraagt zichzelf regelmatig: "Wat heb ik net geleerd? Waar ging het goed? Waar ging het nog niet?"
  • De analogie: Stel je voor dat je een sporter bent. Als je net hardloopt, wil je niet direct een marathon rennen (te moeilijk) en ook niet nog een keer je favoriete wandelpad lopen (te saai). Je wilt iets dat net een beetje uitdagend is, zodat je sneller sterker wordt. PROGRESS zoekt precies die "net-past" momenten.

2. Het "Groeiproces" in plaats van een statische lijst

Oude methoden maakten een vaste lijst van belangrijke voorbeelden voordat ze begonnen. PROGRESS is dynamisch.

  • Hoe het werkt: Het model verdeelt de enorme stapel onbekende voorbeelden in groepjes (bijvoorbeeld: "herkennen van dieren", "lezen van tekst op borden", "tellen van objecten").
  • De selectie: Het model kijkt naar elk groepje en zegt: "Aha, ik word nu heel snel beter in het herkennen van dieren, maar ik zit vast bij het lezen van tekst. Laten we dus meer voorbeelden kiezen over tekst, maar niet te moeilijke tekst."
  • De regel: Het kiest de voorbeelden waar het model de grootste vooruitgang in boekt. Niet de makkelijkste, en niet de moeilijkste, maar de meest leerzame.

3. Waarom is dit zo slim? (De voordelen)

  • Bespaart geld en tijd: Omdat het model alleen de voorbeelden nodig heeft waar het nu echt iets van leert, hoeft het niet de hele stapel van 1 miljoen boeken te lezen. Het komt al met 20% van de boeken (de beste 20%) tot bijna hetzelfde resultaat als met 100%.
  • Geen dure "tweede leraar" nodig: Veel andere slimme methoden hebben een tweede, zeer dure computer nodig om te helpen kiezen welke voorbeelden goed zijn. PROGRESS heeft dat niet; het model kiest zelf.
  • Geen vooraf geschreven antwoorden nodig: Normaal moeten mensen voor elk voorbeeld het juiste antwoord opschrijven voordat het model kan leren. PROGRESS vraagt pas het antwoord als het model dat specifieke voorbeeld echt nodig heeft. Dit bespaart duizenden uren aan menselijk werk.

4. Het resultaat: Een efficiënte leerweg

Het paper toont aan dat dit systeem werkt.

  • Het model leert sneller.
  • Het wordt net zo slim als modellen die alles hebben gelezen.
  • Het werkt zelfs op verschillende soorten modellen en met verschillende soorten data.

Samengevat in één zin:
PROGRESS is als een slimme persoonlijke trainer die niet zegt "doe 1000 squats", maar zegt: "Je bent nu sterk genoeg voor 10 extra kilo, maar nog niet voor 20. Laten we precies die 10 kilo doen, want daar word je het snelst sterker van." Hierdoor wordt het trainen van slimme computers veel goedkoper, sneller en slimmer.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →