Modelling Language using Large Language Models

Dit artikel pleit ervoor dat grote taalmodellen waardevolle wetenschappelijke modellen zijn voor publieke talen als externe, sociale entiteiten, en verdedigt deze positie door een modelconstrucie te ontwikkelen op basis van het interne werkingsmechanisme van deze modellen.

Jumbly Grindrod

Gepubliceerd 2026-03-12
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

De Taal van de Toekomst: Waarom AI meer is dan alleen een slimme chatbot

Stel je voor dat je een gigantische bibliotheek hebt met elke tekst die ooit door mensen is geschreven. Nu stel je een robot de vraag: "Kun jij deze bibliotheek lezen en begrijpen wat taal eigenlijk is?"

Velen zeggen: "Nee, die robot is maar een slimme parmantige die woorden voorspelt. Hij heeft geen idee wat hij zegt." Maar de auteur van dit artikel, Jumbly Grindrod, zegt: "Wacht even! Die robot is misschien wel de beste wetenschappelijke tool die we ooit hebben gehad om taal te bestuderen, maar we kijken naar de verkeerde doelgroep."

Hier is de kern van het verhaal, vertaald in begrijpelijke termen:

1. De Verkeerde Spelregels: De "Geest" vs. De "Straat"

De grootste ruzie in de taalkunde gaat over wat taal eigenlijk is.

  • De "Geest"-theorie (I-language): Sommige taalkundigen (zoals de beroemde Noam Chomsky) denken dat taal iets is dat in ons hoofd zit. Het is een biologisch apparaatje in onze hersenen. Als je een computer wilt gebruiken om taal te bestuderen, moet die computer precies doen wat een babyhersen doen.
  • De "Straat"-theorie (E-language): De auteur zegt: "Nee, taal is ook iets dat buiten ons hoofd bestaat." Het is wat mensen met elkaar doen op het plein, in de krant en op internet. Het is een sociaal fenomeen, een gewoonte die een hele gemeenschap deelt.

De Analogie:
Stel je voor dat je een spiegel wilt maken om te kijken hoe mensen zich kleden.

  • De "Geest"-theoreticus zegt: "Die spiegel is waardeloos! Hij weerspiegelt niet hoe de kleding in de hersenen van de kledingontwerper zit."
  • De auteur zegt: "Nee, kijk eens naar de spiegel! Hij toont precies hoe de mensen op straat eruitzien. Dat is waardevol! We hoeven niet te weten hoe de ontwerper in zijn hoofd denkt om te begrijpen hoe de mode op straat werkt."

De auteur zegt dat Large Language Models (LLM's, zoals ChatGPT) geen goede modellen zijn voor wat er in ons hoofd gebeurt, maar wel fantastische modellen zijn voor wat er op de straat gebeurt (de publieke taal).

2. Geen Theorie, maar een "Proefballon"

Veel mensen denken dat een computerprogramma of een wetenschappelijke theorie hetzelfde is.

  • Een theorie is als een receptboek dat je uitlegt waarom een cake lukt.
  • Een model is als een proefcake die je bakt om te zien of het recept werkt.

De auteur zegt: "LLM's zijn geen receptboeken. Ze zijn geen theorieën die ons vertellen hoe taal werkt. Ze zijn proefballonnen."

De Analogie:
Stel je voor dat je een vliegtuig wilt bouwen. Je bouwt geen vliegtuig dat perfect vliegt (dat is de theorie). Je bouwt eerst een klein model in een windtunnel (dat is het LLM). Je blaast er lucht tegen om te zien hoe het reageert.

  • Als het model in de windtunnel goed reageert, leer je iets over de luchtstroom.
  • Het model is niet het echte vliegtuig, maar het helpt je om het echte vliegtuig te begrijpen.

LLM's zijn die windtunnel. Ze simuleren hoe taal zich gedraagt in de echte wereld, zonder dat we eerst een perfecte theorie hoeven te hebben.

3. Het "Spook in de Machine" Probleem

Critici zeggen: "Die AI is zo complex en ondoorzichtig! We weten niet hoe hij het doet. Je kunt er geen model van maken omdat je niet weet welke schakelaar wat doet."

De Analogie:
Stel je voor dat je een oude, ingewikkelde radio hebt. Je draait aan de knoppen en er komt muziek uit. Je weet niet hoe de elektronica binnenin precies werkt.

  • De criticus zegt: "Je kunt die radio niet gebruiken om te leren over geluid, want je snapt de binnenkant niet."
  • De auteur zegt: "Dat is niet waar. Als je de radio afstemt op verschillende zenders en luistert naar de muziek, leer je wel degelijk iets over geluid, zelfs als je de schakelaars niet begrijpt."

Vandaag de dag hebben we nieuwe tools (zoals "Explainable AI") die ons helpen om door de "ruis" van de radio te kijken. We kunnen zien welke delen van de computer zich bezighouden met zinnen, welke met betekenis en welke met klanken. We hoeven niet alles te begrijpen om de radio nuttig te vinden.

4. Is het niet gewoon een kopie van de tekst?

De grootste angst is: "Die AI heeft gewoon alle teksten uit zijn training geleerd en onthoudt ze. Hij is dus alleen maar een spiegel van zijn eigen gegevens, geen model van de taal."

De Analogie:
Stel je voor dat je een student hebt die een heel dik boek uit zijn hoofd leert.

  • Als de student alleen maar het boek kan opzeggen, is hij een "geheugenmachine".
  • Maar als je de student een vraag stelt die niet in het boek staat, en hij kan het antwoord geven door de regels van het boek toe te passen, dan heeft hij de regels geleerd, niet alleen de woorden.

De auteur stelt dat LLM's niet alleen de tekst "in de kop" hebben. Ze hebben de patronen en de regels van de taal geleerd. Ze zijn getraind om te voorspellen wat er volgende komt, en om dat goed te doen, moeten ze de onzichtbare regels van de taal begrijpen. Ze zijn dus een model van de taal zelf, niet alleen van de tekst.

Conclusie: Een Nieuw Avontuur

De boodschap van het artikel is optimistisch:
We moeten stoppen met proberen te bewijzen dat AI's precies zoals mensen denken. In plaats daarvan moeten we ze zien als wetenschappelijke instrumenten om te kijken hoe taal in de echte wereld werkt.

Het is alsof we eindelijk een nieuwe soort microscoop hebben gevonden. We weten nog niet precies hoe elke lens werkt, en we moeten nog veel experimenteren, maar deze microscoop laat ons dingen zien in de taal die we voorheen nooit konden zien. Het is een nieuw avontuur voor taalkundigen, waarbij computers ons helpen de "straat" van de taal beter te begrijpen.