Each language version is independently generated for its own context, not a direct translation.
Stel je voor dat je een groepje super-intelligente robots hebt die alles weten over wiskunde, coderen en zelfs het oplossen van raadsels die voor mensen onmogelijk lijken. Ze kunnen wiskundige olympiades winnen en complexe computerprogramma's schrijven. Maar de vraag is: kunnen ze ook echt nadenken als een wetenschapper? Kunnen ze helpen bij het ontdekken van nieuwe dingen, of zijn ze gewoon heel slimme zoekmachines die feiten herhalen?
Dit is precies wat een groep top-wetenschappers uit de hele wereld (van Harvard tot Stanford) heeft onderzocht met een nieuw testpakket genaamd CMT-BENCHMARK.
Hier is een uitleg in gewone taal, met een paar leuke vergelijkingen:
1. Het Probleem: De "Schoolvraag" vs. De "Wetenschapsvraag"
Tot nu toe zijn AI-modellen getest op vragen die je in een schoolboek zou vinden. Dat is als een robot die een examen doet voor een middelbare school. Ze scoren daar vaak fantastisch.
Maar echte wetenschap is anders. Het is niet zoals het oplossen van een bekende puzzel; het is meer zoals het ontwerpen van een nieuwe puzzel terwijl je er nog niet zeker van bent of er überhaupt een oplossing is.
De auteurs van dit paper zeggen: "We hebben een test gemaakt voor experts, niet voor leerlingen." Ze hebben 50 originele problemen bedacht over Condensed Matter Theory (een deel van de fysica dat uitlegt waarom materialen zich zo gedragen, zoals waarom sommige dingen supergeleidend worden).
2. De Test: Een "Masterchef" voor AI
Stel je voor dat je een kok (de AI) wilt testen.
- De oude test: Geef de kok een recept en vraag of hij het kan koken. (Dit is wat eerdere tests deden).
- De nieuwe test (CMT-Benchmark): Geef de kok een doos met ingrediënten en zeg: "Maak een gerecht dat nog nooit is bedacht, maar dat wel perfect smaakt en voldoet aan de wetten van de chemie."
Deze 50 problemen zijn bedacht door de beste fysici ter wereld. Ze zijn zo moeilijk dat zelfs een slimme promovendus (een PhD-student) er moeite mee zou hebben. De vragen gaan over dingen zoals:
- Hoe gedragen zich elektronen in een rooster?
- Hoe simuleer je een heel complex systeem op een computer zonder dat het vastloopt?
- Kun je een nieuwe theorie bedenken die de wetten van de natuurkunde niet schendt?
3. Het Resultaat: De Robots Struikelen
Het resultaat was verrassend en een beetje teleurstellend voor de AI-hype.
Zelfs de slimste robots ter wereld (zoals de nieuwste versies van GPT, Claude en Gemini) haalden het niet.
- De beste robot (GPT-5) haalde slechts 30% goed. Dat betekent dat hij op 7 van de 10 vragen het antwoord verkeerd had.
- De gemiddelde robot haalde maar 11%.
- Er waren zelfs 18 vragen waar geen enkele robot van de 17 geteste modellen het juiste antwoord op kon geven.
Het is alsof je een groepje wiskundig genieën vraagt om een nieuw universum te bouwen, en ze blijven steken in het proberen om een simpele brug te bouwen.
4. Waarom Lukt Het Niet? (De "Gaten" in het Brein)
De onderzoekers keken naar waarom de robots faalden. Ze ontdekten drie grote problemen:
- De Taal-Math Kloof: Robots zijn goed in praten en goed in rekenen, maar ze kunnen die twee niet goed samenvoegen. Ze kunnen een verhaal vertellen over een fysica-probleem, maar zodra ze dat verhaal moeten omzetten in een exacte formule, maken ze fouten. Het is alsof ze een verhaal kunnen vertellen over hoe je een auto bouwt, maar als je ze de blauwdruk laat zien, weten ze niet welke bout waar moet.
- Geen "Gevoel" voor Vorm: Fysici gebruiken vaak hun verbeelding om te zien hoe deeltjes zich bewegen in een ruimtelijk patroon. Robots hebben dit visuele inzicht niet. Ze kunnen een rooster niet "zien" en daarom maken ze fouten in de geometrie.
- Het "Boekje" Probleem: Robots leren van boeken en internet. Als een vraag net iets anders is dan wat in de boeken staat, raken ze in paniek. Ze proberen een antwoord te geven dat lijkt op wat ze eerder hebben gelezen, in plaats van echt na te denken over de nieuwe situatie. Ze volgen regels uit het verleden, in plaats van de wetten van de natuurkunde toe te passen op het nu.
5. De Conclusie: We Hebben Nog Een Lange Weg
De boodschap van dit paper is niet dat AI nutteloos is, maar wel dat we nog ver verwijderd zijn van een AI-assistent die echt kan meedenken met een wetenschapper.
Voor nu zijn deze AI's meer als zeer goed opgeleide stagiairs die veel feiten uit hun hoofd hebben geleerd, maar nog niet de "intuïtie" of het "kritische oordeel" hebben om echt nieuwe ontdekkingen te doen. Ze kunnen een bestaand recept kopiëren, maar ze kunnen nog geen nieuw gerecht uitvinden.
Kortom: De robots zijn slim, maar ze zijn nog niet "wijs". Om ze echt te helpen, moeten we ze niet alleen meer feiten geven, maar ze leren hoe ze de fundamentele regels van het universum moeten begrijpen en toepassen, zelfs als ze nog nooit zo'n vraag hebben gezien.
Ontvang papers zoals deze in je inbox
Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.