Torus embeddings

Dit paper introduceert torus-embeddings als een computerefficiënt alternatief voor Euclidische en hypersferische representaties, waarbij wordt aangetoond dat deze aanpak vergelijkbare prestaties biedt en een directe route opent naar efficiënte TinyML-implementaties via quantisatie.

Dan Stowell

Gepubliceerd 2026-03-04
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

De Kern: Een Nieuwe Manier om Data te Bewaren

Stel je voor dat je een enorme bibliotheek hebt met miljoenen boeken (data). Om deze boeken snel te vinden, moet je ze op een slimme manier rangschikken. In de wereld van kunstmatige intelligentie (AI) noemen we deze rangschikking een "embedding".

Meestal doen computers dit op twee manieren:

  1. Op een vlakke kaart (Euclidisch): Zoals een platte wereldkaart.
  2. Op een bol (Hypersfeer): Zoals de aarde, waar alles op het oppervlak ligt.

De auteur, Dan Stowell, stelt een derde optie voor: De Torus.

Wat is een Torus? (De Donut-analogie)

In de wiskunde is een torus een vorm die op een donut of een zwemband lijkt.

  • De Bol: Als je op de aarde (een bol) naar het noorden loopt, kom je uiteindelijk weer uit bij het zuiden. Je kunt niet "voorbij" de rand lopen.
  • De Torus: Stel je een zwemband voor. Als je erop loopt en je gaat naar het "rechter" einde, kom je direct weer uit aan de "linkerkant". Als je naar "boven" gaat, kom je weer uit bij "onder". Er zijn geen randen, maar het is een gesloten lus in elke richting.

Waarom is dit slim voor computers?

Hier komt het slimme stukje van het artikel.

Het probleem met de Bol:
Computers zijn eigenlijk heel goed in het tellen met hele getallen (zoals 0 tot 255). Maar als je een bol wilt tekenen met deze getallen, krijg je een probleem. De coördinaten op een bol zijn vaak "raar" en niet-lineair. Het is alsof je probeert een bol te maken met Legoblokjes die alleen maar recht kunnen staan; het wordt een klungelige, onnauwkeurige bol. Om dit op te lossen, moeten computers vaak ingewikkelde rekenstappen doen, wat tijd en energie kost.

De oplossing met de Torus:
De Torus past perfect bij hoe computers werken.

  • Denk aan een ouderwetse odometer in een auto (de teller voor kilometers). Als je bij 9999 km bent en je rijdt nog een stukje, springt hij terug naar 0000. Dat is "overloop" (overflow).
  • Voor een computer is dit heel normaal en heel snel.
  • Een Torus is precies zo'n "overloop"-wereld. Als je aan de rechterkant van de wereld bent en je gaat nog een stapje verder, ben je automatisch weer aan de linkerkant.

De Analogie:

  • De Bol is als proberen een wereldbol te maken van papier: je moet het papier knippen en plakken, en het wordt kreukelig.
  • De Torus is als een Pac-Man-spel. Als Pac-Man aan de rechterkant van het scherm verdwijnt, komt hij direct aan de linkerkant weer tevoorschijn. De computer hoeft niet na te denken over "randen" of "overloop", het is zijn natuurlijke taal.

Wat heeft de auteur ontdekt?

Stowell heeft getest of je AI-modellen kunt trainen die direct in deze "Pac-Man-wereld" (de Torus) werken, in plaats van de traditionele "Bol-wereld".

  1. Het werkt net zo goed: De AI leert net zo snel en maakt net zo weinig fouten als met de traditionele bol-methode.
  2. Het is sneller en zuiniger: Omdat de Torus perfect past bij de simpele "hele getallen" (integers) die elke gewone processor (zoals in je telefoon of oude laptop) gebruikt, hoeft de computer geen zware wiskunde te doen.
  3. Kleine getallen, grote kracht: Zelfs als je de data heel klein maakt (bijvoorbeeld door ze te comprimeren tot heel weinig bits), blijft de Torus-wereld goed werken. De Bol-wereld wordt dan vaak rommelig en onnauwkeurig.

Waarom is dit belangrijk voor de toekomst?

We leven in een tijd van "TinyML" (kleine AI op kleine apparaten). Denk aan slimme horloges, sensoren in de natuur, of oude computers.

  • Deze apparaten hebben vaak geen krachtige videokaarten (zoals in datacenters), maar simpele processoren.
  • De Torus-methode maakt het mogelijk om slimme AI-modellen te maken die op deze simpele apparaten kunnen draaien, zonder dat ze veel batterij verbruiken of veel geheugen nodig hebben.

Samenvattend in één zin:

De auteur heeft ontdekt dat we AI-data niet hoeven te persen in een ronde bol (wat voor computers lastig is), maar dat we ze beter in een "zwemband-vorm" (Torus) kunnen stoppen, omdat dit precies past bij hoe computers tellen, waardoor ze sneller, zuiniger en makkelijker op kleine apparaten werken.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →