Vision Language Models Cannot Reason About Physical Transformation

De studie ConservationBench onthult dat Vision Language Models systematisch falen in het redeneren over fysieke transformaties en het behoud van eigenschappen, omdat hun prestaties dicht bij het toeval blijven en zelfs verslechteren wanneer visuele informatie wordt toegevoegd ondanks sterke tekstuele vooroordelen.

Dezhi Luo, Yijiang Li, Maijunxian Wang, Tianwei Zhao, Bingyang Wang, Siheng Wang, Pinyuan Feng, Pooyan Rahmanzadehgervi, Ziqiao Ma, Hokin Deng2026-03-10💻 cs

LiveWorld: Simulating Out-of-Sight Dynamics in Generative Video World Models

Dit paper introduceert LiveWorld, een nieuw framework dat bestaande generatieve videowereldmodellen verbetert door een persistent globale staat te modelleren die dynamiek blijft simuleren zelfs wanneer objecten buiten het gezichtsveld van de waarnemer zijn, waardoor een echt continu evoluerende wereld mogelijk wordt.

Zicheng Duan, Jiatong Xia, Zeyu Zhang, Wenbo Zhang, Gengze Zhou, Chenhui Gou, Yefei He, Feng Chen, Xinyu Zhang, Lingqiao Liu2026-03-10💻 cs

NarrativeLoom: Enhancing Creative Storytelling through Multi-Persona Collaborative Improvisation

Het paper introduceert NarrativeLoom, een door theorie geïnspireerd co-creatie-systeem dat gebruikmaakt van multi-persona AI-improvisatie en menselijke selectie om, zoals aangetoond in een studie met 50 deelnemers, creatiever, origineler en uitgebreider verhalen te produceren dan bestaande hulpmiddelen, waarbij met name beginnende schrijvers profiteren van de gestructureerde ondersteuning.

Yuxi Ma, Yongqian Peng, Fengyuan Yang, Siyu Zha, Chi Zhang, Zixia Jia, Zilong Zheng, Yixin Zhu2026-03-10💻 cs