Expert Evaluation of LLM World Models: A High-TcT_c Superconductivity Case Study

Dit artikel presenteert een expertevaluatie van zes LLM-systemen op het gebied van hoge-temperatuur supergeleiding, waarbij een op RAG gebaseerde aanpak met een gespecialiseerde literatuurdatabase de beste prestaties leverde in vergelijking met gesloten modellen.

Haoyu Guo, Maria Tikhanovskaya, Paul Raccuglia, Alexey Vlaskin, Chris Co, Daniel J. Liebling, Scott Ellsworth, Matthew Abraham, Elizabeth Dorfman, N. P. Armitage, Chunhan Feng, Antoine Georges, Olivier Gingras, Dominik Kiese, Steven A. Kivelson, Vadim Oganesyan, B. J. Ramshaw, Subir Sachdev, T. Senthil, J. M. Tranquada, Michael P. Brenner, Subhashini Venugopalan, Eun-Ah Kim

Gepubliceerd 2026-03-12
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een enorme bibliotheek binnenstapt, maar deze is niet gevuld met gewone boeken. Het is een bibliotheek van wetenschappelijke ontdekkingen over een heel specifiek onderwerp: hoge-temperatuur supergeleiding. Dit is een fenomeen waarbij materialen (zoals koper-oxide keramiek) elektriciteit zonder enige weerstand kunnen geleiden, zelfs bij temperaturen die veel warmer zijn dan normaal. Het is een van de grootste mysteries in de moderne fysica.

Het probleem? Er zijn duizenden artikelen geschreven over dit onderwerp in de afgelopen 40 jaar. Voor een nieuwe onderzoeker is het als proberen een compleet verhaal te reconstrueren uit een stapel van 10.000 losse, soms tegenstrijdige, krantenknipsels. Het is bijna onmogelijk om te weten wat er echt waar is, wat verouderd is, en welke theorieën nog steeds strijdig zijn.

In dit paper proberen onderzoekers (een team van experts uit universiteiten en Google) uit te vinden of kunstmatige intelligentie (AI), en dan specifiek Large Language Models (LLM's), deze bibliotheek kunnen doorzoeken en samenvatten alsof ze een wereldtopexpert zijn.

Hier is hoe ze dat hebben aangepakt, vertaald in een simpel verhaal:

1. De Uitdaging: De "Naald in de Hooiberg"

Stel je voor dat je een nieuwe student bent die dit mysterie wil oplossen. Je hebt een AI-assistent nodig die je kan vertellen: "Kijk, in 1990 dachten we dit, maar in 2010 zagen we dat het anders was, en nu denken we dit weer."

De auteurs wilden testen of AI dit kan. Maar AI-modellen (zoals ChatGPT of Google Gemini) zijn vaak getraind op het hele internet. Dat is als proberen een wetenschappelijk antwoord te vinden in een luidruchtige markt waar iedereen roept wat hij wil, inclusief onzin en oude geruchten.

2. Het Experiment: De "Gouden Bibliotheek"

Om de AI te testen, bouwden de experts eerst hun eigen perfecte bibliotheek:

  • Ze selecteerden 1.726 specifieke, betrouwbare wetenschappelijke papers (alleen die met echte meetgegevens, geen pure theorie).
  • Ze stelden 67 moeilijke vragen op, bedacht door de beste experts ter wereld. Deze vragen waren niet zomaar "wat is supergeleiding?", maar dingen als: "Wat is het bewijs voor het quantum-kritieke punt in deze materialen?" of "Hoe groot zijn de wervels in deze supergeleiders?"

3. De Wedstrijd: AI tegen AI

Ze lieten zes verschillende AI-systemen deze vragen beantwoorden:

  • De "Alles-kenners": Bekende AI's (ChatGPT, Claude, Gemini) die het hele internet en hun geheugen gebruiken.
  • De "Bibliotheek-geleerden": Twee AI-systemen die alleen mochten kijken in die specifieke, door experts geselecteerde bibliotheek. Een daarvan kon zelfs grafieken en foto's uit de papers halen om hun antwoord te onderbouwen.

4. De Oordeelvelling: De "Blinde Proef"

De experts keken naar de antwoorden en gaven cijfers op basis van:

  • Balans: Zegt de AI ook de andere kant van het verhaal als er discussie is?
  • Feiten: Mist de AI belangrijke bewijzen?
  • Kort & Krachtig: Is het antwoord verstandig of een lappendeken?
  • Bewijs: Geeft de AI bronnen aan?
  • Afbeeldingen: (Voor de systemen die dat konden) Haalt de AI de juiste grafieken?

5. De Resultaten: Wat bleek er?

Wat ging goed?
De AI's die alleen de gecureerde bibliotheek gebruikten (de "Bibliotheek-geleerden"), deden het veel beter dan de algemene AI's. Ze gaven meer gebalanceerde antwoorden en citeerden betere bronnen. Het bewijst dat als je AI toegang geeft tot betrouwbare data, het veel slimmer wordt.

Wat ging fout? (De "Grote Lekken")
Ondanks de verbeteringen, faalden de AI's op cruciale punten voor echte wetenschap:

  • Oppervlakkig lezen: De AI's konden tekst matchen, maar begrepen de diepe logica niet. Ze misten belangrijke connecties tussen experimenten die een menselijk expert wel zag.
  • Verouderde kennis: Soms citeerden ze oude theorieën die al lang weerlegd waren, zonder te zeggen "dit is verouderd".
  • Geen visueel inzicht: Dit was het grootste probleem. Als een expert vraagt: "Hoe groot is de wervel?", moet de AI een grafiek kunnen lezen en zeggen: "Kijk hier, de schaalbalk toont 100 Ångström." De AI's konden wel een plaatje tonen, maar ze begrepen niet wat erop stond. Ze leken op iemand die een foto van een kaartje laat zien, maar de cijfers erop niet kan lezen.
  • Vertrouwensprobleem: De algemene AI's haalden soms bronnen uit onbetrouwbare blogs of pre-prints (nog niet gecontroleerde papers), wat in de wetenschap gevaarlijk is.

De Conclusie: Een Hulpje, maar geen Expert

De boodschap van dit paper is als volgt:
Stel je een AI voor als een zeer snelle bibliothecaris die duizenden boeken in een seconde kan doorzoeken. Dat is geweldig! Maar deze bibliothecaris is nog geen wetenschapper. Hij kan je vertellen wat er in de boeken staat, maar hij kan nog niet zelf nadenken over de data, de grafieken interpreteren of de nuance van een wetenschappelijke discussie volledig begrijpen.

De les voor de toekomst:
Als we AI willen gebruiken om echte wetenschappelijke doorbraken te vinden, moeten we:

  1. Ze trainen op gecurateerde, betrouwbare data (niet het hele internet).
  2. Ze leren grafieken en data visualisaties echt te "zien" en te begrijpen, niet alleen als plaatjes, maar als informatiebronnen.
  3. Altijd een menselijke expert in de buurt houden om de AI te controleren.

Kortom: AI is een krachtige tool om de "naald in de hooiberg" te vinden, maar het is nog niet slim genoeg om zelf te beslissen welke naald de juiste is.