Reasoning Knowledge-Gap in Drone Planning via LLM-based Active Elicitation

Dit artikel introduceert een nieuw raamwerk voor droneplanning dat, door middel van een neuro-symbolische boomstructuur en grote taalmodellen, de samenwerking tussen mens en AI optimaliseert via actieve, gerichte informatievragen in plaats van controle-overname, wat leidt tot een hogere succesratio en minder menselijke interactie bij complexe zoek- en reddingsmissies.

Zeyu Fang, Beomyeol Yu, Cheng Liu, Zeyuan Yang, Rongqian Chen, Yuxin Lin, Mahdi Imani, Tian Lan

Gepubliceerd 2026-03-10
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een drone bestuurt die een reddingsmissie moet uitvoeren in een brandend gebouw. De drone is slim, maar niet perfect. Soms ziet hij rook en weet hij niet of die rook giftig is (en dus onbegaanbaar) of juist veilig om doorheen te vliegen. Soms ziet hij twee dozen en weet hij niet welke de medicijnen bevat.

In de oude manier van werken zou de drone in zo'n geval de controle overdragen aan de mens: "Ik snap het niet meer, jij doet het maar!" Dit is echter niet ideaal. De mens is misschien goed in begrijpen wat er aan de hand is, maar niet in het sturen van de drone met de precisie die nodig is. Het is alsof je een piloot vraagt om een auto te besturen terwijl jij zelf op de passagiersstoel zit; het is onhandig en vertraagt de missie.

De onderzoekers van dit paper hebben een slimme nieuwe manier bedacht. In plaats van de drone te laten stoppen en de mens te laten sturen, leren ze de drone om slimme vragen te stellen.

De "MINT": Een Denkboom voor Twijfels

De kern van hun oplossing heet MINT (Minimal Information Neuro-Symbolic Tree). Je kunt dit zien als een denkboom of een detective-bord in het hoofd van de drone.

  1. Het Detecteren van het Gaten: Als de drone twijfelt (bijvoorbeeld: "Is die rook gevaarlijk?"), maakt hij geen paniek. Hij bouwt in zijn hoofd een boomstructuur.
    • Tak A: Stel dat de rook veilig is -> Dan vlieg ik er rechtstreeks doorheen (snelste route).
    • Tak B: Stel dat de rook giftig is -> Dan moet ik een omweg maken (langere route).
  2. De Belangrijkheid Check: De drone kijkt nu: "Maakt het uit welke tak ik kies?"
    • Als de rook ver weg is en niet op mijn route, maakt het niet uit. De drone vliegt gewoon door. Geen vraag nodig!
    • Als de rook precies op mijn pad ligt en de route volledig verandert, dan is het een kritieke twijfel.
  3. De Slimme Vraag: Als de twijfel belangrijk is, gebruikt de drone een taalmodel (een soort super-intelligente chatbot) om de perfecte ja/nee-vraag te formuleren.
    • In plaats van een vaag: "Wat moet ik doen?", vraagt hij: "Is de rook voor mij veilig om doorheen te vliegen?"
    • Dit is als een detective die niet vraagt: "Wie heeft het gedaan?", maar specifiek vraagt: "Was de dader links of rechts van de deur?"

Waarom is dit zo goed?

Stel je voor dat je op een kruispunt staat en twijfelt of je links of rechts moet gaan.

  • De oude methode (Exhaustive Query): Je vraagt aan iedereen op straat: "Moet ik links of rechts?" Dit kost veel tijd en energie, ook als het antwoord voor jou niet uitmaakt omdat je toch een andere kant op moet.
  • De nieuwe methode (MINT): De drone kijkt eerst naar zijn kaart. Als hij ziet dat links en rechts beide naar dezelfde bestemming leiden, vraagt hij niemand. Als hij ziet dat links een doodlopende straat is en rechts de snelweg, vraagt hij alleen: "Is de weg rechts open?"

Wat hebben ze bewezen?

De onderzoekers hebben dit getest in twee situaties:

  1. In een virtuele wereld (NVIDIA Isaac): Ze lieten drones reddingsmissies uitvoeren in een virtueel brandend magazijn.

    • Resultaat: De oude drones faalden vaak of maakten onnodige omwegen. De nieuwe drone met de "denkboom" slaagde in 100% van de gevallen.
    • Belangrijker nog: Hij stelde 30% minder vragen aan de mens dan drones die bij elke twijfel direct stopten.
  2. In de echte wereld: Ze lieten een echte drone vliegen in een kamer met verschillende dozen.

    • De drone zag twee dozen en wist niet welke de medicijnen bevatte. Hij vroeg via een microfoon: "Moet ik de rode doos pakken?"
    • De mens antwoordde "Ja", en de drone vloog succesvol.
    • Zonder deze slimme vragen zou de drone vaak de verkeerde doos hebben gepakt of vastgelopen.

Conclusie in één zin

Dit onderzoek laat zien dat de beste samenwerking tussen mens en machine niet betekent dat de mens de controle overneemt, maar dat de machine leert precies de juiste vragen te stellen op het juiste moment, zodat de mens alleen hoeft te helpen als het echt nodig is. Het is de kunst van het "weten wat je niet weet" en het slim omgaan met die onzekerheid.