From Pixels to Predicates: Learning Symbolic World Models via Pretrained Vision-Language Models

Deze paper introduceert een methode die voorgeprende vision-language modellen gebruikt om symbolische wereldmodellen te leren uit korte demonstraties, waardoor robots in staat zijn om via planning complexe, lange-horizon taken in nieuwe omgevingen en met nieuwe doelen op te lossen.

Ashay Athalye, Nishanth Kumar, Tom Silver, Yichao Liang, Jiuguang Wang, Tomás Lozano-Pérez, Leslie Pack Kaelbling2026-03-10🤖 cs.LG

Controllable Sequence Editing for Biological and Clinical Trajectories

Het paper introduceert CLEF, een model dat longitudinale biologische en klinische trajecten nauwkeurig kan bewerken door interventies op specifieke tijdstippen en variabelen te richten, waardoor het aanzienlijk beter presteert dan bestaande methoden bij het genereren van realistische tegenwereldscenario's.

Michelle M. Li, Kevin Li, Yasha Ektefaie, Ying Jin, Yepeng Huang, Shvat Messica, Tianxi Cai, Marinka Zitnik2026-03-10🤖 cs.LG

Go Beyond Your Means: Unlearning with Per-Sample Gradient Orthogonalization

Dit paper introduceert OrthoGrad, een nieuwe methode voor machine unlearning die door het projecteren van de gradiënt van het te vergeten dataset op de orthogonale ruimte van de behouden dataset, effectieve verwijdering van ongewenste informatie mogelijk maakt zonder de prestaties op de resterende data te schaden, zelfs wanneer slechts een klein deel van de trainingset beschikbaar is.

Aviv Shamsian, Eitan Shaar, Aviv Navon, Gal Chechik, Ethan Fetaya2026-03-10🤖 cs.LG