The Mechanistic Invariance Test: Genomic Language Models Fail to Learn Positional Regulatory Logic

Deze studie toont aan dat genomische taalkundige modellen falen in het leren van de mechanistische principes van genregulatie omdat ze in plaats van positionele logica voornamelijk afhankelijk zijn van oppervlakkige statistische patronen zoals AT-gehalte, wat leidt tot fundamentele fouten in het interpreteren van biologische realiteit.

Bryan Cheng, Jasper Zhang

Gepubliceerd 2026-04-09
📖 5 min leestijd🧠 Diepgaand
⚕️

Dit is een AI-gegenereerde uitleg van een preprint die niet peer-reviewed is. Dit is geen medisch advies. Neem geen gezondheidsbeslissingen op basis van deze inhoud. Lees de volledige disclaimer

Each language version is independently generated for its own context, not a direct translation.

🧬 De Grote Teleurstelling: AI's die DNA niet echt begrijpen

Stel je voor dat je een superintelligente robot hebt gebouwd die miljoenen boeken (DNA-sequenties) heeft gelezen. Deze robot, een Genomisch Taalmodel (gLM), is fantastisch geworden in het voorspellen van wat er gebeurt als je een lettertje in een boek verandert. Wetenschappers dachten: "Wauw, deze robot begrijpt de regels van het leven!"

Maar dit nieuwe onderzoek, gepresenteerd op de ICLR 2026 conferentie, zegt: "Nee, die robot is eigenlijk een bedrieger."

De robot heeft de regels niet geleerd; hij heeft alleen kansen en patronen onthouden. Het is alsof iemand die een recept voor cake heeft gelezen, denkt dat als er veel suiker in zit, het altijd een goede taart moet zijn. Hij begrijpt niet waar de suiker moet zitten, of hoe de eieren en bloem samenwerken.


🍰 De Metafoor: De Cakebakker en de Verkeerde Plek

Om dit te testen, hebben de onderzoekers (Bryan Cheng en Jasper Zhang) een speciale proef opgezet, de MIT (Mechanistic Invariance Test).

Stel je een taartrecept voor dat heel strikt is:

  1. Je moet suiker (een belangrijk DNA-element) op de bodem van de vorm doen.
  2. Als je de suiker op de bodem doet, wordt de taart lekker (het gen werkt).
  3. Als je de suiker op het dekje doet (op de verkeerde plek), is de taart nog steeds zoet, maar hij werkt niet als taart. Het is gewoon een hoop suiker op het verkeerde moment.

Wat deed de AI?
De AI keek naar de taarten en dacht: "Oh, deze taart heeft veel suiker! Dat moet een goede taart zijn!"
Het maakte geen verschil of de suiker op de bodem zat of op het dekje. De AI zag alleen de suiker (de samenstelling), niet de plek (de positie).

In het onderzoek bleek dat de AI's zelfs verkeerde plekken als beter beoordeelden dan de juiste plekken. Alsof ze dachten: "Suiker op het dekje? Dat is nog lekkerder!" Terwijl biologisch gezien dat helemaal niet klopt.


🔍 Wat hebben ze precies gedaan?

De onderzoekers maakten 650 verschillende "DNA-kaarten" (sequenties) en gaven ze aan vijf verschillende super-robots (AI-modellen) om te beoordelen.

  1. De Test: Ze maakten een "kapotte" taart (een gen dat niet werkt) en een "gerepareerde" taart (waar ze extra suiker aan toevoegden op de juiste plek om het te repareren).
  2. De Valstrik: Ze maakten ook een taart met precies dezelfde suiker, maar dan op de verkeerde plek.
  3. Het Resultaat:
    • Een echte bioloog zou zeggen: "De gerepareerde taart is goed, de verkeerd geplaatste is waardeloos."
    • De AI's zeiden: "Beide zijn ongeveer even goed, want ze hebben allebei veel suiker."

De AI's waren blind voor de richting en blind voor de afstand. Ze zagen alleen hoeveel "suiker" (AT-rijkheid) er in het geheel zat.


🤖 De Verbluffende Bevindingen

  1. Hoe groter, hoe dommer: Je zou denken dat een grotere AI (met meer "hersenen" of parameters) slimmer zou zijn. Maar nee! De grootste AI (Evo2-1B) was juist de meest overtuigde "suiker-detecteur". Hij dacht dat suiker op de verkeerde plek zelfs beter was. Hoe groter het model, hoe sterker het vasthield aan dit verkeerde idee.
  2. De simpele winnaar: De onderzoekers maakten een heel simpel modelletje (met slechts 100 "parameters", vergeleken met de miljarden van de AI's). Dit simpele modelletje wist precies waar de suiker moest zitten. Het deed het perfect.
    • Conclusie: Het probleem is niet dat de AI's niet slim genoeg zijn. Het probleem is dat ze de verkeerde manier van leren hebben gekozen. Ze zijn opgeleid om te raden op basis van statistieken, niet om de logica van het leven te begrijpen.

💡 Waarom is dit belangrijk?

Stel je voor dat je deze AI's gebruikt om nieuwe medicijnen te ontwerpen of ziektes te genezen door DNA te repareren.

  • Als de AI denkt dat suiker op het dekje werkt, en jij bouwt een medicijn op basis daarvan... dan werkt je medicijn niet.
  • Het is alsof je een auto bouwt met wielen aan het dak, omdat de AI dacht dat "rondjes" belangrijk zijn, maar niet wist dat ze onderaan moeten zitten.

🚀 Wat is de oplossing?

De onderzoekers zeggen: "Stop met alleen maar grotere AI's te bouwen. We moeten de architectuur veranderen."
We moeten AI's bouwen die niet alleen kijken naar wat er in de tekst staat (de letters), maar ook waar het staat (de positie). We moeten ze leren dat plek net zo belangrijk is als inhoud.

Kort samengevat:
De huidige AI's zijn als een kind dat denkt dat als er veel bloemen in een vaas zitten, het een mooi boeket is. Het maakt niet uit of de bloemen in de vaas staan of op de grond liggen. De onderzoekers hebben bewezen dat deze AI's de "grammatica" van het leven nog niet begrijpen, en dat we nieuwe, slimmere manieren nodig hebben om ze te leren hoe het echt werkt.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →