From Pixels to Predicates: Learning Symbolic World Models via Pretrained Vision-Language Models

Deze paper introduceert een methode die voorgeprende vision-language modellen gebruikt om symbolische wereldmodellen te leren uit korte demonstraties, waardoor robots in staat zijn om via planning complexe, lange-horizon taken in nieuwe omgevingen en met nieuwe doelen op te lossen.

Ashay Athalye, Nishanth Kumar, Tom Silver, Yichao Liang, Jiuguang Wang, Tomás Lozano-Pérez, Leslie Pack Kaelbling2026-03-10🤖 cs.LG