Can Large Language Models Derive New Knowledge? A Dynamic Benchmark for Biological Knowledge Discovery

Dit artikel introduceert DBench-Bio, een dynamisch en volledig geautomatiseerd benchmarkkader dat maandelijkse updates combineert met een drie-stapsproces om de capaciteit van grote taalmodellen tot het ontdekken van nieuwe biologische kennis te evalueren en zo de beperkingen van bestaande statische datasets op te lossen.

Chaoqun Yang, Xinyu Lin, Shulin Li, Wenjie Wang, Ruihan Guo, Fuli Feng, Tat-Seng Chua

Gepubliceerd 2026-03-05
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een groep zeer slimme, maar jonge detectives hebt. Ze hebben allemaal de hele bibliotheek van de wereld uit hun hoofd geleerd. Ze kunnen elke vraag beantwoorden over wat er ooit is geschreven. Maar wat gebeurt er als je ze een vraag stelt over een geheim dat gisteren pas is onthuld? Kunnen ze dat nog oplossen, of zijn ze vastgelopen in hun eigen geheugen?

Dit is precies het probleem dat de auteurs van dit paper onderzoeken. Ze hebben een nieuw spel bedacht om te testen of kunstmatige intelligentie (AI) echt nieuwe kennis kan ontdekken, of dat hij alleen maar oude feiten herhaalt.

Hier is de uitleg, vertaald naar alledaags Nederlands met een paar creatieve vergelijkingen:

1. Het Probleem: De "Plagiaat"-Valstrik

Tot nu toe werden AI-modellen getest met oude examenvragen (zoals schoolboeken uit 2020). Het probleem? De AI-modellen hebben die vragen misschien al gezien tijdens hun "leerproces" (training).

  • De Analogie: Het is alsof je een student test met een examen dat hij al heeft gehoord. Als hij de antwoorden uit zijn hoofd kent, lijkt hij een genie, maar hij heeft niets ontdekt. Hij heeft alleen maar geplagiaat.
  • De oplossing: Je hebt een examen nodig met vragen die nog niet bestaan op het moment dat de student gaat leren.

2. De Oplossing: DBench-Bio (De "Live" Test)

De auteurs hebben DBench-Bio bedacht. Dit is geen statisch examen, maar een levende, dynamische test.

  • Hoe het werkt:
    1. De Bron: Ze kijken alleen naar de allerbeste wetenschappelijke tijdschriften (de "top 100" van de biologie) die na de lancering van de AI zijn gepubliceerd.
    2. De Vertaling: Een slimme AI leest deze nieuwe artikelen en maakt er vragen en antwoorden van. Denk aan: "Hoe werkt dit nieuwe medicijn precies?"
    3. De Filter: Een andere AI (de "juf") kijkt of de vragen goed zijn. Ze gooit vragen weg die te vaag zijn of die over onbelangrijke details gaan. Alleen de echte, belangrijke ontdekkingen blijven over.
  • Het resultaat: Een maandelijkse update van nieuwe vragen. Omdat de AI deze vragen nog nooit heeft gezien, is het eerlijk testen.

3. Wat Vonden Ze? (De Verdict)

Ze hebben de slimste AI's ter wereld (zoals GPT-5 en andere) op deze test gezet. De resultaten waren verrassend:

  • Goed in herinneren, slecht in ontdekken: De AI's waren fantastisch in het beantwoorden van vragen over wat we al wisten (zoals "Wat is DNA?"). Maar zodra het ging om nieuwe ontdekkingen (zoals "Hoe werkt dit nieuwe eiwit dat gisteren is gevonden?"), faalden ze.
  • De "Rekenkunde"-barrière: In gebieden waar veel wiskunde en simulaties bij kwamen kijken, ging het helemaal mis. De AI's konden de logica niet volgen.
  • De "Gokker"-fout: Soms probeerde de AI een antwoord te geven dat logisch klonk, maar volledig verzonnen was.
    • Vergelijking: Het is alsof een detective een moord oplost door te zeggen: "De dader moet een groene hoed dragen, want dat past bij het weer," terwijl er geen enkel bewijs voor is. De AI "hallucineert" een antwoord dat klinkt als waarheid, maar het is niet.
  • Hulpmiddelen helpen niet altijd: Je zou denken dat als je de AI een zoekmachine geeft (om nieuwe artikelen te vinden), hij het beter doet. Maar vaak gebruikten ze toch maar hun eigen oude geheugen, of vonden ze niet het juiste stukje informatie.

4. De Grote Les

De kernboodschap van dit paper is: AI is momenteel een uitstekende archivaris, maar nog geen echte wetenschapper.

  • Huidige AI: Kan alle feiten uit de wereld opzoeken en samenvatten.
  • Nieuwe AI (wat we nodig hebben): Moet in staat zijn om nieuw inzicht te krijgen, patronen te zien in data die nog nooit eerder bestonden, en echte hypothesen te vormen.

Conclusie

De auteurs zeggen: "We hebben de eerste meetlat gemaakt om te zien of AI echt kan 'nadenken' over nieuwe dingen, in plaats van alleen maar te 'rekenen' met oude dingen."

Ze hopen dat deze test (DBench-Bio) als een kompas dient voor de toekomst. Het laat zien dat we AI niet alleen maar moeten laten "groeien" met meer data, maar dat we speciale nieuwe manieren moeten vinden om hen te leren hoe ze echte, nieuwe kennis kunnen creëren. Het is de stap van "een slimme robot" naar "een slimme partner in de wetenschap".