DatedGPT: Preventing Lookahead Bias in Large Language Models with Time-Aware Pretraining

Dit paper introduceert DatedGPT, een familie van twaalf taalmodellen die zijn getraind op strikt tijdsgebonden data om vooringenomenheid door toekomstkennis in financiële voorspellingen te voorkomen, terwijl ze toch concurrerende prestaties behouden.

Yutong Yan, Raphael Tang, Zhenyu Gao, Wenxi Jiang, Yao Lu

Gepubliceerd Fri, 13 Ma
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een zeer slimme, maar ietwat verwarde voorspeller hebt. Deze voorspeller is opgeleid door alles wat er ooit op het internet is geschreven te lezen. Hij is geweldig in het beantwoorden van vragen, maar er zit een groot probleem aan vast: hij is een tijdreiziger die zijn eigen toekomst kent.

In de financiële wereld (waar mensen geld verdienen of verliezen op basis van voorspellingen) is dit een ramp. Als je deze AI vraagt: "Wat ging er gebeuren met de beurs in oktober 2008?", en hij antwoordt direct en zeker, dan is dat niet omdat hij slim heeft nagedacht over de situatie op dat moment. Hij heeft gewoon het antwoord "uit zijn hoofd" geleerd, omdat hij in zijn trainingstijd al had gelezen wat er later zou gebeuren. Dit noemen onderzoekers kijk-ahead bias (vooruitkijkende bias). Het is alsof je een examen doet, maar je hebt al het antwoordboekje in je hand gehad voordat je de vragen zag.

De auteurs van dit paper, DATEDGPT, hebben een oplossing bedacht om dit probleem op te lossen. Hier is hoe ze dat hebben gedaan, vertaald naar een simpel verhaal:

1. De "Tijdcapsule"-methode

Stel je voor dat je twaalf verschillende bibliotheken bouwt.

  • Bibliotheek 1 bevat alleen boeken die voor 2013 zijn geschreven.
  • Bibliotheek 2 bevat alleen boeken tot 2014.
  • ...en zo verder, tot Bibliotheek 12 die alleen boeken bevat tot 2024.

In plaats van één grote AI te maken die alles door elkaar leest, hebben ze twaalf aparte AI's getraind. Elke AI is opgeleid op alleen de informatie die op dat moment beschikbaar was.

  • De AI van 2020 weet niets van ChatGPT, want die bestond in 2020 nog niet.
  • De AI van 2024 weet wel alles, maar de AI van 2013 weet het niet.

Het is alsof je twaalf verschillende versies van jezelf hebt: één die stopte met leren in 2013, één in 2014, enzovoort. Als je de "2013-versie" vraagt wat er in 2024 gebeurt, zegt hij: "Geen idee, ik heb dat nog niet gelezen!" Dat is precies wat je wilt in de financiële wereld: eerlijke voorspellingen zonder cheatcodes.

2. De "Schone Leertijd"

Deze AI's zijn niet zomaar opgeleid. De auteurs hebben heel streng gekeken naar de data.

  • Ze hebben internetdata (nieuws, blogs, etc.) verzameld.
  • Ze hebben gekeken naar de datum waarop een pagina voor het eerst op het internet verscheen (de "crawl-datum").
  • Alles wat na de "stopdatum" van een specifieke AI op het internet verscheen, is hardhandig verwijderd.

Het is alsof je een student een examen laat maken, maar je zorgt ervoor dat de student de krant van morgen niet mag lezen. Zo weten we zeker dat de student echt nadenkt over de informatie die hij nu heeft, en niet gewoon het antwoord uit het hoofd leert.

3. De "Tijdsbewuste" Trainer

Naast het lezen van nieuws, hebben ze de AI's ook getraind om vragen te beantwoorden (zoals een chatbot). Maar ook hier hebben ze opgelet:

  • Als ze de AI van 2020 trainden, gebruikten ze alleen instructies en voorbeelden die in 2020 bestonden.
  • Ze hebben zelfs gekeken naar financiële vragen, zoals: "Wat zal het aandeel Apple doen?" of "Wat zegt het management over hun plannen?"
  • De AI leert zo te redeneren op basis van wat er toen bekend was, net zoals een echte belegger dat zou doen.

4. De Proef: De "Perplexiteit"-test

Hoe weten ze dat het werkt? Ze hebben een slimme test gedaan. Ze gaven een AI (bijvoorbeeld de versie van 2020) nieuwsberichten uit 2021.

  • Voor 2020: De AI vond de taal vertrouwd en begreep het goed (lage "verwarring").
  • Na 2020: De AI begon te struikelen. De taal en de feiten waren hem vreemd, omdat hij die data nooit had gezien. De "verwarring" (perplexiteit) steeg plotseling.

Dit is als bewijs dat de AI echt niet "kijkt" in de toekomst. Hij is echt gevangen in zijn eigen tijd.

Waarom is dit belangrijk?

Vroeger dachten we dat AI's slim waren omdat ze alles wisten. Maar in de financiële wereld is "alles weten" juist gevaarlijk. Je wilt weten of een model echt kan voorspellen of dat het alleen herinnert.

DATEDGPT is een familie van twaalf slimme robots die je kunt kiezen op basis van het jaar waarin je wilt "reizen".

  • Wil je weten wat een belegger in 2015 zou denken? Gebruik de 2015-AI.
  • Wil je weten wat de 2024-AI denkt? Gebruik die.

Ze hebben zelfs een website gemaakt waar je dit zelf kunt uitproberen. Je kunt vragen stellen aan de "2020-versie" en zien dat hij niet weet wat ChatGPT is, terwijl de "2024-versie" het wel weet.

Kortom: DATEDGPT is een manier om AI's eerlijk te maken door ze te dwingen te leven in het heden van hun training, zodat ze geen "cheatcodes" uit de toekomst gebruiken. Het is de perfecte manier om te testen of een AI echt slim is, of dat hij gewoon een antwoordboekje heeft gelezen.