Extending Foundational Monocular Depth Estimators to Fisheye Cameras with Calibration Tokens

Deze paper introduceert een zelftoezichtmethode met 'Calibration Tokens' die bestaande monokulaire diepteschatters, getraind op perspectiefbeelden, zonder extra training of finetuning toepasbaar maakt op fisheye-camera's door de latent embeddings uit te lijnen.

Suchisrit Gangopadhyay, Jung-Hee Kim, Xien Chen, Patrick Rim, Hyoungseob Park, Alex Wong

Gepubliceerd 2026-03-17
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een zeer slimme robot hebt die is opgeleid om de wereld te zien en afstanden te schatten. Deze robot is getraind met miljoenen foto's van gewone camera's (zoals die in je telefoon of een DSLR). Op die foto's lijken rechte lijnen rechte lijnen te blijven. De robot heeft hierdoor een perfect gevoel voor diepte ontwikkeld.

Nu willen we deze robot echter een vis-oog lens (fisheye) geven. Dit is een lens die extreem breed is, zoals bij een duivels oog of een security-camera. Het probleem? Een vis-oog lens vervormt het beeld. Rechte lijnen worden krom, en de randen van de foto worden uitgerekt.

Als je de slimme robot nu direct een vis-oog foto geeft, raakt hij in de war. Hij denkt dat de wereld gekromd is, terwijl hij eigenlijk gewoon de vervorming van de lens ziet. Hij schat de afstanden verkeerd in.

Het probleem: De "Covariate Shift"

In vakjargon noemen ze dit een covariate shift. Simpel gezegd: de robot is getraind op "normale" beelden, maar krijgt nu "kromme" beelden. Het is alsof je iemand die perfect Nederlands spreekt plotseling laat praten met een zware, onbekende accent. De woorden zijn hetzelfde, maar de klank is anders, en de luisteraar raakt in de war.

De oude oplossingen (die niet werken)

Vroeger probeerden mensen dit op twee manieren op te lossen, maar beide hadden nadelen:

  1. De foto rechttrekken: Je probeerde de kromme foto eerst digitaal "rechttrekken" voordat je hem aan de robot gaf. Maar dit werkt niet perfect; het creëert wazige plekken, rekken en knippen. De robot krijgt dan een foto die eruitziet alsof hij uit een oude, beschadigde film komt.
  2. De robot opnieuw leren: Je traint de robot opnieuw, alleen met vis-oog foto's. Het probleem hier is dat er heel weinig vis-oog foto's met de juiste afstandsgegevens (ground truth) beschikbaar zijn. Het is alsof je iemand wilt leren Frans, maar je hebt maar één boekje. De robot wordt dan heel goed in Frans, maar vergeet zijn eerdere kennis van Nederlands.

De nieuwe oplossing: "Calibratie Tokens"

De auteurs van dit paper hebben een slimme, lichte oplossing bedacht: Calibratie Tokens.

Stel je voor dat de robot een enorme bibliotheek heeft (zijn hersenen) die hij niet wilt veranderen. We willen hem niet opnieuw leren, maar we willen hem wel een talenkoffer geven.

  • De Tokens: Dit zijn kleine, digitale "stickers" of "woorden" die we aan de input van de robot plakken. Ze bevatten informatie over hoe de vis-oog lens vervormt.
  • Hoe het werkt: Wanneer de robot een vis-oog foto krijgt, plakt hij deze "stickers" erbij. De robot leest de stickers en zegt: "Ah, ik zie dat dit een vis-oog lens is. Ik moet mijn interne interpretatie van deze kromme lijnen even aanpassen, alsof ik een bril opzet die de kromming compenseert."
  • Het resultaat: De robot gebruikt zijn bestaande, superkrachtige kennis van afstanden, maar past zijn "blik" even aan op de lens. Hij hoeft niet opnieuw te leren, en de foto wordt niet digitaal vervormd (geen kwaliteitsverlies).

Hoe trainen ze deze stickers?

Ze hoeven geen duizenden vis-oog foto's te vinden. Ze doen het slim:

  1. Ze nemen een normale foto.
  2. Ze rekken deze digitaal uit tot een vis-oog foto (met een computerprogramma).
  3. Ze geven deze "kromme" foto aan de robot.
  4. De robot moet de afstanden schatten.
  5. Vervolgens nemen ze het antwoord van de robot en "rekken het terug" naar de oorspronkelijke, rechte vorm.
  6. Ze vergelijken dit met de originele, rechte foto. Als ze overeenkomen, is de robot goed. Zo leert de robot (en de stickers) hoe ze de kromming moeten compenseren, zonder dat er echte vis-oog foto's nodig zijn.

Waarom is dit geweldig?

  • Snel en licht: De "stickers" zijn zo klein dat ze bijna geen extra rekenkracht kosten.
  • Veelzijdig: Je kunt dezelfde stickers gebruiken voor binnen (kamers) en buiten (straten).
  • Terugkeerbaar: Als je de stickers eraf haalt, werkt de robot weer perfect voor normale camera's. Je hoeft dus geen aparte robot te hebben voor elke camera.

Kort samengevat: In plaats van de robot te dwingen opnieuw te leren of de foto's te vervormen, geven we de robot een slimme "bril" (de tokens) die hem helpt de kromming van de vis-oog lens te negeren, zodat hij zijn oorspronkelijke slimme kennis kan blijven gebruiken.

Verdrinkt u in papers in uw vakgebied?

Ontvang dagelijkse digests van de nieuwste papers die bij uw onderzoekswoorden passen — met technische samenvattingen, in uw taal.

Probeer Digest →