Are We Asking the Right Questions? On Ambiguity in Natural Language Queries for Tabular Data Analysis

Dit paper presenteert een raamwerk dat ambiguïteit in natuurlijke taalqueries voor tabulair data-analyse herdefinieert als een kenmerk van samenwerking tussen gebruiker en systeem, waarmee het huidige evaluatiemethoden bekritiseert en richtlijnen voor toekomstig onderzoek biedt.

Daniel Gomm, Cornelius Wolff, Madelon Hulsebos

Gepubliceerd 2026-03-04
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Titel: Waarom we stoppen met klagen over "onduidelijke" vragen aan computers

Stel je voor dat je een chef-kok (de computer) vraagt om een maaltijd te bereiden.

In de wereld van data-analyse hebben we tot nu toe altijd gedacht dat als een klant (de gebruiker) een onduidelijk bestelling geeft, de chef het probleem is. We dachten: "De klant moet precies zeggen wat hij wil, anders is het mijn fout dat ik de verkeerde maaltijd maak."

Deze paper zegt: "Nee, wacht even. Dat is niet hoe samenwerking werkt."

Hier is de kern van het verhaal, vertaald naar alledaags Nederlands:

1. Het probleem: De "Perfecte" klant bestaat niet

Stel je voor dat je naar een supermarkt gaat en zegt: "Ik wil een salade."
De chef-kok (het systeem) denkt: "Oké, maar welke? Met kip of zonder? Met dressing of zonder? Van deze week of van vorige week?"

In de oude manier van denken (zoals veel huidige AI-systemen doen), proberen ze de chef te dwingen om één perfecte maaltijd te raden, alsof de klant een fout heeft gemaakt. Ze proberen de "verborgen intentie" van de klant te achterhalen.

Maar de auteurs van dit artikel zeggen: Onduidelijkheid is geen fout, het is een teken van samenwerking.
Wanneer jij zegt "een salade", geef je een deel van het werk aan de chef. Jij vertrouwt erop dat de chef weet dat "salade" meestal groenten betekent, en dat hij de rest zelf mag invullen op basis van wat er in de koelkast ligt.

2. De nieuwe kijk: Samenwerking in plaats van perfectie

De paper introduceert een nieuw concept: Coöperatieve vragen.

  • De "Samenwerkende" vraag: Jij zegt: "Maak een salade met wat seizoensgroenten."

    • Jij geeft de basis (groenten).
    • De chef vult de rest in (welke groenten, welke dressing) op basis van gezond verstand.
    • Dit is een goede vraag. Het systeem mag hier keuzes maken.
  • De "Niet-samenwerkende" vraag: Jij zegt: "Maak iets."

    • Dit is te vaag. De chef weet niet of je een soep, een taart of een salade wilt. Er is geen enkele logische keuze die de chef kan maken. Dit is een vraag die niet opgelost kan worden.
  • De "Onmiskenbare" vraag: Jij zegt: "Maak een Caesar-salade met kip, zonder Parmezaanse kaas, met dressing op basis van citroen."

    • Hier is geen ruimte voor interpretatie. De chef moet precies doen wat er staat. Dit is goed om te testen of de chef de instructies kan volgen, maar niet om te testen of de chef creatief kan zijn.

3. De grote ontdekking: We testen de verkeerde dingen!

De auteurs hebben 15 grote lijsten met vragen (benchmarks) onderzocht die gebruikt worden om AI-systemen te testen. Ze ontdekten twee grote problemen:

  1. De "Cheats" (Data-Privilege): Veel testvragen bevatten geheimen die een echte klant niet zou weten.

    • Voorbeeld: Een vraag zegt: "Hoeveel mensen hebben de bestelling met ID #A729 gedaan?"
    • Een echte klant in de open wereld weet die ID niet. Die weet alleen: "Hoeveel mensen hebben pizza besteld?"
    • De huidige tests laten AI-systemen slagen door te raden op basis van deze "cheats", terwijl ze in de echte wereld zouden falen.
  2. De "Mix" van vragen: De tests mengen alle soorten vragen door elkaar.

    • Ze testen of de AI een simpele som kan maken (wat een simpele vraag is) en of de AI een creatieve keuze kan maken (wat een samenwerkende vraag is) in dezelfde test.
    • Analogie: Het is alsof je een kok test door hem te vragen of hij een ei kan bakken (simpele taak) en of hij een compleet diner kan bedenken voor een bruidspaar (creatieve taak), en dan zegt: "Hij heeft 50% goed gedaan." Dat zegt je niets over of hij een goede kok is.

4. Wat moeten we nu doen? (De oplossing)

De paper stelt drie dingen voor om de toekomst beter te maken:

  1. Testen met de juiste vragen:

    • Wil je weten of de AI goed kan rekenen? Gebruik dan onmiskenbare vragen (alles staat er precies op).
    • Wil je weten of de AI slim kan meedenken? Gebruik dan samenwerkende vragen (waar de AI keuzes moet maken).
    • Stop met het testen van creatieve keuzes met vragen die al een vast antwoord hebben.
  2. AI's die durven te kiezen:

    • Ontwerp systemen die zeggen: "U vroeg om een salade. Ik heb verse spinazie en tomaat, dus ik maak een Caesar-salade. Vindt u dat goed?"
    • In plaats van te raden of te falen, moet de AI zijn keuze uitleggen. Als de klant het niet leuk vindt, kan hij zeggen: "Nee, ik wilde geen kaas."
  3. Van "één keer vragen" naar "gesprek":

    • Als de vraag te vaag is (zoals "Maak iets"), moet de AI niet raden. Het moet vragen: "Bedoelt u een soep of een hoofdgerecht?"
    • Dit is een gesprek, geen commando.

Conclusie

De boodschap is simpel: Stop met proberen de mens perfect te maken.

Mensen zijn nu eenmaal niet perfect in het specificeren van wat ze willen. Ze vertrouwen erop dat de ander (de computer) een beetje meedenkt. Als we AI-systemen ontwerpen die dit vertrouwen waarderen en slimme keuzes maken in plaats van alleen maar exacte instructies te volgen, krijgen we veel betere en menselijkere tools voor het analyseren van data.

Kortom: Laat de chef-kok soms zelf de dressing kiezen, zolang hij maar weet dat het een salade moet zijn.