Agent-OM: Leveraging LLM Agents for Ontology Matching

Dit artikel introduceert Agent-OM, een nieuw raamwerk dat LLM-agenten inzet voor het oplossen van semantische heterogeniteit tussen ontologieën en dat, zoals aangetoond door evaluaties op OAEI-benchmarks, uitstekende prestaties levert op zowel eenvoudige als complexe matching-taken.

Zhangcheng Qiang, Weiqing Wang, Kerry Taylor

Gepubliceerd 2026-03-10
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Agent-OM: De Slimme Vertaler voor Digitale Werelden

Stel je voor dat je twee enorme bibliotheken hebt. In de ene bibliotheek (de "Bron") staan boeken over conferenties, maar ze zijn geschreven in een taal die alleen de oude bibliothecarissen begrijpen. In de andere bibliotheek (de "Doel") staan boeken over hetzelfde onderwerp, maar dan in een heel andere taal en met andere indelingen.

Het probleem? Je wilt weten welk boek in de ene bibliotheek precies hetzelfde inhoudt als welk boek in de andere. Dit noemen we Ontologie Matching. Het is als het vinden van de perfecte dubbelgangers tussen twee verschillende werelden.

Vroeger deden computers dit met starre regels (als A lijkt op B, dan is het hetzelfde) of met machine learning die duizenden voorbeelden nodig had om te leren. Maar nu hebben we LLM's (zoals de slimme AI's die je misschien kent). Die zijn geweldig in taal, maar ze hebben een paar lastige eigenschappen:

  1. Ze weten niet alles wat er gisteren is gebeurd.
  2. Ze kunnen "hallucineren" (dingen verzinnen die klinken als waarheid, maar niet kloppen).
  3. Ze zijn niet goed in complexe plannen maken of het zoeken naar specifieke feiten zonder hulp.

Hier komt Agent-OM om de hoek kijken.

Wat is Agent-OM eigenlijk?

In plaats van de AI gewoon te vragen: "Zijn deze twee woorden hetzelfde?", hebben de onderzoekers een AI-agent gebouwd. Denk aan deze agent niet als een simpele chatbot, maar als een super-organiseerde detective met een team van gespecialiseerde hulpmiddelen.

Deze detective werkt met een slim systeem dat bestaat uit drie belangrijke onderdelen:

1. De "Tweeling" (Siamese Agents)

Stel je voor dat je twee detectives hebt die samenwerken, maar elk hun eigen werkplek hebben.

  • Detective A (Retrieval Agent): Deze gaat eerst op onderzoek uit. Hij leest alle boeken in beide bibliotheken, haalt de belangrijkste feiten eruit en legt ze netjes opgeslagen in een enorme, slimme archiefkast.
  • Detective B (Matching Agent): Deze kijkt naar de archiefkast van Detective A en begint te vergelijken. Hij zoekt naar de beste matches.

Ze noemen ze "Siamese" (Siamese tweelingen) omdat ze hun eigen plannen maken en hulpmiddelen gebruiken, maar ze delen één geheugen. Dat is cruciaal: wat de ene detective vindt, weet de andere direct.

2. Het Geheugen en de Hulpmiddelen (Tools)

Een gewone AI moet alles in één keer onthouden, wat vaak leidt tot fouten. Agent-OM doet het anders:

  • Korte-termijn geheugen: Ze praten met elkaar in een chatvenster om hun gedachten te ordenen (zoals een detective die zijn notities doorneemt).
  • Lange-termijn geheugen: Ze gebruiken een hybride database. Dit is als een bibliotheek die zowel een traditionele index heeft (voor exacte namen) als een "gevoels-index" (voor betekenis). Als je zoekt op "hond", vindt hij niet alleen het woord "hond", maar ook "dier dat blaft" of "vierpotige vriend", zelfs als dat niet exact zo staat geschreven.
  • De Hulpmiddelen: De AI roept geen magische krachten in, maar gebruikt specifieke tools. Hij vraagt: "Wat betekent dit woord?" of "Zoek in de database naar vergelijkbare termen." Dit voorkomt dat de AI gaat verzinnen.

3. De "Check" (Validatie)

Dit is misschien wel het slimste deel. Voordat de detective een match definitief maakt, doet hij een self-check. Hij vraagt zichzelf: "Weet ik zeker dat deze twee hetzelfde zijn? Kijk eens naar de context."
Als hij twijfelt, gooit hij de match weg. Dit voorkomt dat hij "hallucineert" en twee dingen met elkaar verbindt die niets met elkaar te maken hebben.

Waarom is dit zo goed?

De onderzoekers hebben hun systeem getest op echte, moeilijke taken (zoals het matchen van medische termen of materiaalwetenschap).

  • Bij simpele taken: Het doet het net zo goed als de beste systemen die er al jaren zijn.
  • Bij moeilijke taken: Waar andere systemen vastliepen (bijvoorbeeld bij termen die maar één keer voorkomen, of bij complexe medische codes), schitterde Agent-OM. Het kon de betekenis van woorden begrijpen, zelfs als ze er heel anders uitzagen.

De Gouden Tips (Wat hebben ze geleerd?)

De onderzoekers ontdekten twee belangrijke instellingen om de detective optimaal te laten werken:

  1. De "Zekerheidsdrempel": Ze moeten erg zeker zijn (90-95% zekerheid) voordat ze zeggen "Ja, dit is hetzelfde". Als je te laag instelt, krijg je veel fouten.
  2. Het "Aantal Kansen": Laat de detective eerst 3 of 4 mogelijke matches bekijken voordat hij de beste kiest. Kijkt hij maar naar 1, mist hij misschien de juiste. Kijkt hij naar 10, wordt het te rommelig.

Conclusie

Agent-OM is als het geven van een bril, een notitieblok en een team van experts aan een slimme AI. In plaats van de AI te dwingen alles uit zijn hoofd te kennen, geven we haar de tools om te zoeken, te plannen en zichzelf te controleren.

Het resultaat? Een systeem dat complexe digitale vertalingen tussen verschillende werelden niet alleen sneller, maar ook veel accurater maakt. Het is een stap dichter bij een internet waar alle systemen perfect met elkaar kunnen praten, zonder dat er duizenden mensen handmatig hoeven te werken.