Information Capacity: Evaluating the Efficiency of Large Language Models via Text Compression

Dit paper introduceert 'information capacity', een nieuwe metriek die de inferentie-efficiëntie van grote taalmodellen kwantificeert door tekstcompressieprestaties te relateren aan rekencomplexiteit en tokeniseer-efficiëntie, waardoor inzicht wordt verkregen in de schaalbaarheid en linguïstische bias van diverse modellen.

Cheng Yuan, Jiawei Shao, Xuelong Li

Gepubliceerd 2026-03-11
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een gigantische bibliotheek hebt vol met boeken, maar in plaats van ze één voor één te lezen, gebruik je een super-intelligente robot om ze samen te vatten. Hoe slim is die robot? En hoe snel kan hij werken zonder dat je hele energievoorraad leegraakt?

Dit is precies waar dit nieuwe onderzoek over gaat. De auteurs, van China Telecom, hebben een nieuwe manier bedacht om te meten hoe efficiënt een grote taalmodel (zoals de AI die je nu gebruikt) eigenlijk is. Ze noemen deze maatstaf "Informatiecapaciteit".

Hier is de uitleg in simpele taal, met een paar leuke vergelijkingen:

1. Het Probleem: De "Grote Honger" van AI

Tegenwoordig worden AI-modellen steeds slimmer, maar ze zijn ook extreem hongerig. Ze eten enorme hoeveelheden stroom en rekenkracht op. Het is alsof je een Ferrari bouwt die wel 1000 km/u kan rijden, maar voor elke kilometer een tank benzine nodig heeft. Dat is niet duurzaam.

De vraag is: Hoe slim is een model in verhouding tot hoeveel energie het verbruikt? Helaas hadden we tot nu toe geen goede meetlat om dit te zeggen, vooral omdat verschillende modellen verschillende "woordenboeken" gebruiken en verschillende bouwplannen hebben.

2. De Oplossing: De "Compressie-Test"

De auteurs zeggen: "Laten we kijken naar compressie."
Stel je voor dat je een zeer lange, rommelige tekst moet opslaan op een USB-stick.

  • Een slim model begrijpt de tekst zo goed dat het de tekst kan "samenvatten" tot een heel klein bestandje zonder informatie te verliezen. Het voorspelt perfect wat er als volgende komt.
  • Een dom model snapt de tekst niet goed, dus het bestand blijft groot.

In de wereld van AI is het voorspellen van het volgende woord (zoals een tekstverwerker die suggesties doet) precies hetzelfde als het comprimeren van data. Hoe beter het voorspellen, hoe kleiner het bestand.

De nieuwe maatstaf (Informatiecapaciteit) is dus:

Hoeveel ruimte bespaar je (slimheid) gedeeld door hoeveel energie het kost om die slimme voorspelling te doen?

3. De Verborgen Held: De "Vertaler" (Tokenizer)

Een van de grootste ontdekkingen in dit papier is dat de tokenizer (het deel van de AI dat tekst omzet in getallen) vaak wordt vergeten, maar enorm belangrijk is.

  • Vergelijking: Stel je voor dat je een boek wilt vertalen naar een andere taal.
    • Tokenizer A schrijft elk woord als een apart woord. "Ik ga naar huis" = 4 woorden.
    • Tokenizer B is slim en weet dat "Ik ga naar huis" één concept is. "Ik ga naar huis" = 1 woord.
  • Als je 1000 zinnen moet verwerken, moet Tokenizer A 4000 keer rekenen, terwijl Tokenizer B maar 1000 keer hoeft te rekenen. Tokenizer B is dus veel efficiënter, zelfs als de "hersenen" (het model) even slim zijn.
  • Dit onderzoek laat zien dat een efficiënte tokenizer net zo belangrijk is voor de snelheid als de intelligentie van het model zelf.

4. Wat hebben ze ontdekt?

Ze hebben 56 verschillende modellen getest op verschillende soorten teksten (Engels, Chinees, computercode, PDF's).

  • Gelijke familie, gelijke efficiëntie: Als je kijkt naar een familie van modellen (bijvoorbeeld de "Qwen" familie), dan is de efficiëntie (Informatiecapaciteit) vrijwel hetzelfde, of het nu een klein of een gigantisch model is. Het grote model is wel slimmer, maar het kost ook evenredig meer energie.
  • Taal-bias: Modellen zijn vaak heel goed in het taalgebied waar ze voor zijn getraind. Een model dat goed is in Engels, kan soms heel slecht zijn in Chinees of computercode. Het is alsof een kok die meester is in Italiaans eten, maar de worstjes niet eens kan bakken.
  • MoE (Mixture of Experts): Sommige modellen werken als een team van specialisten. Ze schakelen alleen de "experts" in die nodig zijn voor de vraag. Dit maakt ze veel efficiënter dan modellen die alles zelf moeten doen.

5. Waarom is dit belangrijk?

Voor de toekomst van AI is dit een game-changer:

  1. Voorspellen: Als je weet hoe efficiënt een klein model is, kun je precies voorspellen hoe een groter model uit dezelfde familie zal presteren, zonder dat je die enorme, dure grotere modellen eerst hoeft te bouwen en te testen. Het is alsof je de snelheid van een raceauto kunt voorspellen door alleen de motor van de kleine versie te bekijken.
  2. Beter bouwen: Het helpt ontwikkelaars om te zien waar ze moeten verbeteren. Moeten ze hun "woordenboek" (tokenizer) verbeteren? Of hun architectuur?
  3. Duurzaamheid: Het helpt ons te kiezen voor modellen die niet alleen slim zijn, maar ook niet de hele planeet opwarmen door hun energieverbruik.

Kortom:
De auteurs hebben een nieuwe "brandstof-efficiëntie-keurmerk" voor AI-bedrijven bedacht. Het zegt niet alleen hoe snel de auto is, maar ook hoeveel benzine hij verbruikt per kilometer, rekening houdend met hoe goed de bestuurder (de tokenizer) de weg kent. Hierdoor kunnen we in de toekomst slimmere, maar ook schonere en goedkopere AI-modellen bouwen.