AfriMTEB and AfriE5: Benchmarking and Adapting Text Embedding Models for African Languages

Dit paper introduceert AfriMTEB, een uitgebreid benchmark voor 59 Afrikaanse talen, en AfriE5, een aangepast tekst-embeddingmodel dat door middel van cross-linguale contrastieve distillatie state-of-the-art prestaties bereikt op deze regio.

Kosei Uemura, Miaoran Zhang, David Ifeoluwa Adelani

Gepubliceerd 2026-03-09
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat de wereld van kunstmatige intelligentie (AI) een enorme bibliotheek is. In deze bibliotheek staan boeken over alles en nog wat, maar er is één groot probleem: de meeste boeken zijn geschreven in Engels of Chinees. De boeken in Afrikaanse talen? Die staan vaak op een donkere zolder, in een hoekje, of ze zijn er helemaal niet.

De auteurs van dit paper, Kosei Uemura, Miaoran Zhang en David Adelani, zeggen: "Dat moet anders." Ze hebben twee dingen gedaan om deze bibliotheek eerlijker te maken voor Afrika.

Hier is hun verhaal, vertaald naar simpele taal:

1. Het Probleem: De "Afrikaanse Hoek" was te klein

Tot nu toe hadden wetenschappers een grote meetlat (een benchmark genaamd MMTEB) om te testen hoe goed AI-talen begrijpt. Maar als je die meetlat op Afrika legde, bleek hij te kort. Veel Afrikaanse talen werden genegeerd, of er waren gewoon geen goede oefeningen voor. Het was alsof je een auto test op een racebaan, maar dan alleen met één wiel en op een modderpad. Je weet niet of de auto echt goed is.

2. De Oplossing: De Nieuwe Meetlat (AfriMTEB)

De auteurs hebben een nieuwe, uitgebreide meetlat gebouwd: AfriMTEB.

  • Wat is het? Een enorme verzameling van 38 verschillende "proefjes" (taken) voor 59 Afrikaanse talen.
  • De analogie: Stel je voor dat je een chef-kok wilt testen. De oude test vroeg alleen: "Kun je een ei bakken?" De nieuwe test vraagt: "Kun je een stoofpot maken, een salade snijden, een soep koken en een taart bakken?" En ze doen dit niet alleen in het Frans, maar in 59 verschillende talen.
  • De "Lite" versie: Omdat 59 talen te veel werk is om alles perfect te vergelijken, hebben ze ook een AfriMTEB-Lite gemaakt. Dit is een selecte groep van 9 talen (zoals Swahili, Yoruba en Zulu) die in elk proefje voorkomt. Dit zorgt voor een eerlijke vergelijking, alsof je 9 atleten laat rennen op exact hetzelfde parcours.

3. De Nieuwe Speler: AfriE5

Nu hadden ze een meetlat, maar ze hadden ook een betere "atleet" nodig om die te testen. Bestaande AI-modellen waren vaak niet goed genoeg voor Afrikaanse talen.

  • Wat hebben ze gedaan? Ze hebben een bestaande, sterke AI (genaamd mE5) een "bijles" gegeven.
  • De analogie: Stel je voor dat mE5 een slimme student is die Engels en Spaans perfect spreekt, maar Afrikaanse talen maar een beetje kent. De auteurs hebben hem niet alleen laten studeren, maar hem ook vertaalde verhalen laten lezen. Ze namen verhalen in het Engels, vertaalden ze naar Afrikaanse talen, en lieten de AI zien hoe de betekenis in beide talen hetzelfde blijft.
  • De truc: Ze gebruikten een "leraar" (een ander slim model) die de AI corrigeerde. Als de AI dacht dat twee zinnen hetzelfde betekenden, maar dat was niet zo, kreeg hij een tik op zijn vingers. Zo leerde hij de subtiele verschillen tussen de Afrikaanse talen.

4. Het Resultaat: De Kleine Reus wint

Toen ze de nieuwe AI (AfriE5) op de nieuwe meetlat (AfriMTEB) zetten, gebeurde er iets verrassends:

  • Hij won. AfriE5 scoorde beter dan veel andere modellen, zelfs beter dan dure, gesloten modellen van grote tech-bedrijven (zoals Google's Gemini).
  • De verrassing: AfriE5 was getraind op slechts 9 talen, maar hij presteerde fantastisch op alle 59 talen!
  • De analogie: Het is alsof je een atleet traint op een klein veldje met 9 lopers, en hij blijkt daarna de hele Olympische marathon te kunnen winnen, zelfs op de zwaarste stukken waar hij nooit eerder is geweest. Hij heeft de "essentie" van de taal zo goed begrepen dat hij het op andere talen ook kon toepassen.

Waarom is dit belangrijk?

Vroeger was AI voor Afrikaanse talen vaak een gok. Nu hebben we:

  1. Een eerlijke meetlat om te zien wie er goed is.
  2. Een bewezen methode om AI te leren Afrikaanse talen begrijpen, zonder dat je duizenden jaren aan data nodig hebt.

Kortom: De auteurs hebben de bibliotheek niet alleen uitgebreid met meer boeken, ze hebben ook een nieuwe bibliothecaris aangesteld die eindelijk alle talen in de zaal begrijpt. Dit betekent dat diensten zoals zoekmachines, vertaalapps en chatbots in de toekomst veel beter zullen werken voor mensen die Afrikaanse talen spreken.