LMOD+: A Comprehensive Multimodal Dataset and Benchmark for Developing and Evaluating Multimodal Large Language Models in Ophthalmology

Deze paper introduceert LMOD+, een uitgebreide multimodale dataset en benchmark met 32.633 gevallen voor ophthalmologie die is ontwikkeld om multimodale grote taalmodellen te evalueren op taken zoals ziekteopsporing, -stadiëring en demografische voorspelling, met als doel de ontwikkeling van AI-toepassingen ter bestrijding van wereldwijde oogziekten te versnellen.

Zhenyue Qin, Yang Liu, Yu Yin, Jinyu Ding, Haoran Zhang, Anran Li, Dylan Campbell, Xuansheng Wu, Ke Zou, Tiarnan D. L. Keenan, Emily Y. Chew, Zhiyong Lu, Yih Chung Tham, Ninghao Liu, Xiuzhen Zhang, Qingyu Chen

Gepubliceerd 2026-03-10
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat de oogheelkunde (de wereld van oogartsen) een enorme bibliotheek is vol met duizenden foto's van ogen, maar de boeken staan in de war en de titels ontbreken. Nu zijn er slimme computerprogramma's, genaamd Multimodale Grootte Taalmodellen (MLLMs), die net als een superintelligente bibliothecaris kunnen lezen én kijken. De vraag is: kunnen deze robots echt goed diagnoses stellen voor oogziektes, of zijn ze nog maar net begonnen met leren?

Dit paper introduceert LMOD+, een nieuw, gigantisch hulpmiddel om deze robots te testen en te trainen. Hier is de uitleg in simpele taal:

1. Het Probleem: De "Leerboeken" Ontbreken

Vroeger waren er al slimme computers die oogziektes konden herkennen, maar die waren als speciale gereedschappen. Je had één gereedschap voor diabetes in de ogen, een ander voor staar, en weer een ander voor glaucoom. Ze waren goed in één ding, maar niet flexibel.

Nu hebben we de nieuwe generatie AI (zoals de slimme robots die je kent van chatbots), die alles in één keer kunnen doen. Maar om ze te leren, hadden we geen goede "oefenmateriaal". De oude testsets waren te simpel (alleen ja/nee-vragen) en niet geschikt voor deze nieuwe, creatieve robots die zinnen moeten vormen. Het was alsof je een Formule 1-auto wilde testen op een kinderfietsbaan.

2. De Oplossing: LMOD+ (De Grote Oefensessie)

De onderzoekers hebben LMOD+ gebouwd. Dit is een enorm verzamelpakket met 32.633 oogafbeeldingen. Het is als een super-omvangrijke oefenboek voor oogartsen, maar dan voor robots.

Wat maakt dit pakket zo speciaal?

  • Verschillende soorten foto's: Het bevat niet alleen gewone oogfoto's, maar ook diepe scans (OCT), foto's van tijdens operaties, en foto's van de lens. Het is alsof je een robot leert kijken met verschillende soorten brillen.
  • Vier soorten taken: De robots moeten niet alleen zeggen "ziek of niet ziek", maar ook:
    1. Anatomie herkennen: "Waar zit de pupil en waar zit de iris?" (Zoals het leren van de namen van de onderdelen van een auto).
    2. Ziektes diagnosticeren: "Heeft deze patiënt diabetes in de ogen?"
    3. Ernst bepalen: "Is de ziekte net begonnen of al heel erg?" (Zoals het beoordelen of een krasje op de auto een kleine kras is of een deuk).
    4. Voorspellen: Kunnen ze uit de oogfoto zien of de patiënt man of vrouw is? (Dit doen ze om te kijken of de robot vooroordelen heeft).

3. De Test: Hoe doen de robots het?

De onderzoekers hebben 24 verschillende robots (de slimste AI-modellen van dit moment) op deze test gezet. Het resultaat? Een mix van hoop en teleurstelling.

  • Het goede nieuws: Sommige robots (zoals Qwen en InternVL) kunnen redelijk goed zien of iemand een veelvoorkomende oogziekte heeft. Ze doen het zelfs zonder dat ze eerst specifiek voor die taak zijn getraind (dit heet "zero-shot", alsof ze de test doen zonder te studeren).
  • Het slechte nieuws: Als de taak moeilijker wordt, zoals het bepalen van de ernst van een ziekte (stadiëring), zakken de robots vaak naar een niveau dat niet veel beter is dan raden. Ze lijken dan net een kind dat probeert een ingewikkeld raadsel op te lossen.
  • De verrassing: De robots die speciaal voor de geneeskunde waren gemaakt (zoals LLaVA-Med), deden het soms zelfs slechter dan de algemene robots! Het lijkt erop dat het "medische" training niet altijd helpt als je geen specifieke oogtraining hebt.

4. Waar gaan de robots de fout in?

De onderzoekers keken naar de fouten en vonden vijf hoofdsoorten:

  1. Verkeerd lezen: Ze zien een vlekje en denken dat het een ziekte is, terwijl het niets is (of andersom).
  2. Verwarde logica: Ze zeggen "Ja, het is glaucoom", maar geven als reden "want de patiënt heeft een rode neus".
  3. Geen kijken: Ze zeggen "Ik kan niet kijken" en geven een standaard antwoord, zonder de foto echt te analyseren.
  4. Tekst-krampen: Soms beginnen ze te stotteren en herhalen ze woorden eindeloos (zoals "uitleg... uitleg... uitleg...").
  5. Onbekende feiten: Ze gebruiken medische termen verkeerd.

De belangrijkste les: De robots zien de foto's wel, maar ze begrijpen de betekenis van wat ze zien nog niet goed genoeg. Ze missen de "klinische ervaring" die een menselijke arts heeft.

5. Waarom is dit belangrijk?

Oogziektes zijn een wereldwijd probleem. Er zijn niet genoeg oogartsen voor iedereen. Als we deze robots goed kunnen trainen, kunnen ze helpen om ziektes sneller te ontdekken, vooral in plekken waar geen specialisten zijn.

De onderzoekers hebben de hele dataset en de testresultaten gratis beschikbaar gesteld. Ze zeggen eigenlijk: "Kijk, hier is de oefenboek en de antwoordenlijst. Laat ons samen werken om deze robots slimmer te maken, zodat ze ooit echt kunnen helpen om blindheid te voorkomen."

Kortom: LMOD+ is de nieuwe "rijbewijstest" voor oog-AI. De robots hebben hun rijbewijs nog niet gehaald, maar ze hebben nu eindelijk een goede baan om te oefenen.