Each language version is independently generated for its own context, not a direct translation.
SRAG: De Slimme Bibliotheek die Eindelijk Alles Begrijpt
Stel je voor dat je een enorme, moderne bibliotheek hebt. In deze bibliotheek staan miljoenen boeken (de "chunks" of stukjes tekst) die een kunstmatige intelligentie (de LLM) kan raadplegen om vragen te beantwoorden. Dit systeem heet RAG (Retrieval Augmented Generation).
Hoe werkt de gewone bibliotheek nu?
Stel, je vraagt: "Hoe presteert Apple's AI-strategie in vergelijking met Microsoft?"
De bibliothecaris (het zoekalgoritme) kijkt naar je vraag en zoekt naar boeken die op het oppervlak het meest lijken op de woorden "Apple", "AI" en "Microsoft". Hij pakt de boeken die het meest op die woorden lijken.
Het probleem: Soms pakt de bibliothecaris het verkeerde boek. Hij ziet dat een boek over "Microsoft" gaat, maar hij mist de nuance dat je eigenlijk een vergelijking wilt, of dat je specifiek naar financiële cijfers kijkt. Hij zoekt op "woordgelijkenis", niet op "wat bedoel je eigenlijk".
De Oplossing: SRAG (De Bibliotheek met Labels)
De auteurs van dit paper, Shalin Shah en zijn team van Anvai AI, zeggen: "Laten we de bibliothecaris niet alleen de boeken laten zoeken op titel, maar ook op een heel specifiek label dat we aan elk boek en aan elke vraag plakken."
Ze noemen dit SRAG (Structured RAG).
Hoe werkt het? Een analogie met een supermarkt:
Stel je een supermarkt voor.
- Gewone RAG: Je vraagt aan de verkoper: "Ik wil iets lekkers." De verkoper kijkt naar de producten die het woord "lekker" in de beschrijving hebben. Misschien haalt hij een peperkoek, terwijl jij eigenlijk een zoete taart wilde.
- SRAG: Voordat je de supermarkt binnenkomt, krijg je een kleurrijke sticker op je vraag geplakt: "Zoekt: Vergelijking, Financieel, Negatief sentiment (risico's)."
Elk product in de supermarkt (elk stukje tekst) heeft ook zo'n sticker: "Inhoud: Apple, Vergelijking, Positief, Financiële cijfers."
De verkoper (het zoekalgoritme) kijkt nu niet alleen naar de woorden, maar kijkt of de stickers op je vraag matchen met de stickers op de producten. Hij pakt nu precies het juiste product, zelfs als de woorden in de tekst niet exact hetzelfde zijn als in je vraag.
Wat voor "stickers" gebruiken ze?
Ze plakken heel specifieke informatie (metadata) op de vragen en de teksten:
- Onderwerp (Topics): Waar gaat het over? (Bijv. "Apple", "Kunstmatige Intelligentie").
- Gevoel (Sentiment): Is het positief, negatief of neutraal?
- Type vraag: Is het een vraag om feiten te vinden? Of een vraag om twee dingen te vergelijken? Of een vraag om een voorspelling te doen?
- Kennisnetwerk (Knowledge Graph): Ze koppelen feiten aan elkaar, zoals een web van connecties, zodat het systeem begrijpt dat "Apple" en "Microsoft" vaak samen in een vergelijking voorkomen.
Waarom is dit zo'n groot succes?
Het paper toont aan dat deze methode de antwoorden van de AI met 30% beter maakt. Maar het echte wonder gebeurt bij de moeilijke vragen:
- Vergelijkende vragen: "Hoe gaat Apple het doen ten opzichte van Google?"
- Zonder SRAG: De AI zoekt naar teksten over Apple en teksten over Google, maar mist de link ertussen.
- Met SRAG: De AI ziet het label "Vergelijking" en pakt direct de stukken tekst die specifiek deze twee bedrijven naast elkaar zetten.
- Analytische en voorspellende vragen: "Wat gebeurt er met de winst als de dollar stijgt?"
- Zonder SRAG: De AI zoekt naar "winst" en "dollar", maar mist de logische redenering.
- Met SRAG: De AI ziet het label "Voorspelling" en "Risico", waardoor hij de juiste stukjes informatie vindt die helpen om een logische conclusie te trekken.
De "Nadelen" (of het gebrek daaraan):
Het mooie is dat ze geen nieuwe, ingewikkelde bibliotheek hoeven te bouwen. Ze hoeven alleen maar de boeken (de data) opnieuw in te delen en stickers te plakken voordat ze in de kast gaan. De rest van het systeem blijft hetzelfde. Het is alsof je bestaande boekenkast gewoon een nieuw, slim etiketsysteem geeft.
Wat zeggen de cijfers?
De onderzoekers hebben dit getest met een zeer slimme AI (GPT-5) als scheidsrechter.
- Bij simpele vragen ("Wat is de winst van Apple?") was het resultaat ongeveer hetzelfde.
- Bij complexe vragen (vergelijken, analyseren, voorspellen) schoot SRAG omhoog naar een score van 94 (op 100), terwijl de oude methode bleef steken op 55 tot 65.
Conclusie in één zin
SRAG is als het geven van een GPS aan je zoekmachine. In plaats van alleen te kijken naar de bestemming (de woorden), kijkt hij ook naar het type route (vergelijking, voorspelling, feit) en de verkeersomstandigheden (gevoel, context), zodat hij je altijd de snelste en slimste weg naar het juiste antwoord laat zien.
Dit maakt AI veel slimmer in het begrijpen van wat we echt bedoelen, niet alleen wat we zeggen.