Engineering Regression Without Real-Data Training: Domain Adaptation for Tabular Foundation Models Using Multi-Dataset Embeddings

Deze paper introduceert TREDBench en een embedding-gestuurde methode voor het selecteren van synthetische data om TabPFN 2.5 aan te passen aan engineering-regressieproblemen zonder gebruik van echte engineering-steekproeven, wat leidt tot aanzienlijke verbeteringen in voorspellende nauwkeurigheid en datadoeltreffendheid.

Lyle Regenwetter, Rosen Yu, Cyril Picard, Faez Ahmed

Gepubliceerd 2026-03-06
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Het Grote Probleem: De "Lege Vrieskast" van de Ingenieur

Stel je voor dat je een super-slimme kok wilt zijn die elke soort taart kan bakken. In de wereld van kunstmatige intelligentie (AI) hebben we zo'n "superkok" al voor tekst (zoals ChatGPT) en voor foto's. Deze modellen zijn getraind op enorme hoeveelheden data: miljoenen zinnen en foto's.

Maar in de techniek (bijvoorbeeld het ontwerpen van een nieuwe auto, een brug of een medicijn) is het heel anders. Hier zijn de "ingrediënten" (de data) vaak:

  1. Zeer schaars: Het kost miljoenen euro's om één crash-test van een auto te doen. Je hebt dus geen miljoenen tests, maar misschien maar een paar dozijn.
  2. Versnipperd: Elke ingenieur heeft zijn eigen kleine stapeltje data, maar niemand heeft één grote verzameling.

Omdat er zo weinig echte data is, kunnen de slimme AI-modellen niet goed leren. Ze zijn als een kok die alleen maar in theorie heeft geleerd, maar nooit echt in een keuken heeft gestaan.

De Oplossing: De "Fictieve Keuken"

De onderzoekers van MIT dachten: "Wat als we de kok eerst trainen op een enorme hoeveelheid fictieve data?"

Ze gebruiken een generator die miljoenen nep-datasets maakt. Het is alsof je een computer laat dromen over duizenden verschillende taarten die kunnen bestaan. De AI (een model genaamd TabPFN) leert hierdoor de basisregels van het bakken.

Het probleem: De "fictieve taarten" die de computer droomt, smaken vaak niet echt. Ze zijn te willekeurig. Als je de AI nu een echte taartrecept geeft (echt ingenieursdata), is hij verward. De verhouding tussen suiker en bloem in zijn dromen klopt niet met de realiteit. Er is een kloof tussen de droomwereld en de echte wereld.

De Nieuwe Methode: De "Smaaktest"

De onderzoekers wilden de AI trainen op echte data, maar die was er niet genoeg. Dus bedachten ze een slimme truc: Ze gaan de droomwereld aanpassen.

  1. De Smaaktest (TREDBench): Ze maakten een lijst van 83 echte datasets (35 van ingenieurs, 48 van andere dingen zoals vastgoed). Ze gebruikten een slimme "neus" (een embedding van TabPFN) om te ruiken of een dataset naar "techniek" ruikt of naar "vastgoed".

    • Vergelijking: Het is alsof je een proeverij hebt waar je kunt ruiken of een drankje echt koffie is of nep-koffie. Ze ontdekten dat de standaard nep-data van de computer heel duidelijk anders ruikt dan echte koffie.
  2. De Selectie: Ze lieten de computer 10.000 nieuwe "droom-datasets" maken. Vervolgens lieten ze de "neus" deze datasets proeven.

    • Ze selecteerden alleen de top 200 datasets die het meest leken op echte ingenieursdata.
    • Vergelijking: In plaats van 10.000 willekeurige droom-recepten te gebruiken, selecteerden ze alleen die 200 recepten die het meest op een echte, heerlijke taart leken.
  3. De Opleiding (Zonder Echte Data): Ze namen deze 200 "beste" droom-datasets en gebruikten ze om de AI verder te trainen.

    • Het magische deel: Ze gebruikten geen enkele echte ingenieursdata voor deze training. Ze veranderden alleen de "droomwereld" van de AI zodat deze meer leek op de echte wereld.

Het Resultaat: Een Beter Bakker

Toen ze de getrainde AI testten op echte ingenieursproblemen, gebeurde er iets wonderlijks:

  • Hij was slimmer: De AI maakte betere voorspellingen dan de oorspronkelijke AI en zelfs beter dan de beste bestaande software (AutoGluon).
  • Hij was zuiniger: De AI had veel minder echte data nodig om goed te presteren.
    • Vergelijking: De oude AI had misschien 100 echte taartrecepten nodig om goed te worden. De nieuwe AI had er maar 25 nodig om hetzelfde niveau te bereiken. Dat is een winst van 4,4 keer zo efficiënt.

Waarom is dit belangrijk?

Dit onderzoek toont aan dat we de "schaarste aan data" in de techniek kunnen oplossen zonder dat we duizenden dure experimenten hoeven te doen.

In plaats van te wachten tot er genoeg echte data is, kunnen we de generator van de dromen zo aanpassen dat de dromen realistischer worden. Het is alsof we de kok niet meer laten dromen van willekeurige groenten, maar hem laten dromen van precies de groenten die hij in de echte wereld gaat gebruiken.

Kortom: Door slim te kiezen uit de nep-data, kunnen we een AI bouwen die net zo goed presteert alsof hij op echte data is getraind, zelfs als die echte data er niet is. Dit opent de deur voor snellere en goedkopere innovaties in de techniek.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →