ABD: Default Exception Abduction in Finite First Order Worlds

Il paper introduce ABD, un benchmark per valutare la capacità dei modelli linguistici di generare formule logiche di prima ordine che definiscono eccezioni sparsamente in mondi finiti, evidenziando attraverso l'analisi di dieci modelli all'avanguardia su 600 istanze che, sebbene ottengano alta validità, persistono significative lacune nella parsimonia e modalità di fallimento nella generalizzazione.

Serafim Batzoglou2026-03-10✓ Author reviewed 💻 cs

Open-Vocabulary Domain Generalization in Urban-Scene Segmentation

Questo lavoro introduce il nuovo setting di Open-Vocabulary Domain Generalization in Semantic Segmentation (OVDG-SS) per la guida autonoma, proponendo un benchmark e il metodo S2-Corr per migliorare la robustezza dei modelli di segmentazione sia su domini non visti che su categorie non viste, mitigando le distorsioni nelle correlazioni testo-immagine causate dai cambiamenti di dominio.

Dong Zhao, Qi Zang, Nan Pu, Wenjing Li, Nicu Sebe, Zhun Zhong2026-03-10💻 cs

InfScene-SR: Arbitrary-Size Image Super-Resolution via Iterative Joint-Denoising

Il paper propone InfScene-SR, un metodo di super-risoluzione basato su modelli di diffusione che, grazie alle tecniche di fusione con correzione della varianza (VCF) e correzione spazialmente disaccoppiata (SDVC), permette di generare immagini ad alta risoluzione di dimensioni arbitrarie eliminando gli artefatti di confine e riducendo la complessità computazionale.

Shoukun Sun, Zhe Wang, Xiang Que, Jiyin Zhang, Xiaogang Ma2026-03-10💻 cs

Cycle-Consistent Tuning for Layered Image Decomposition

Questo lavoro presenta un framework di decomposizione delle immagini basato su modelli di diffusione pre-addestrati e adattati tramite LoRA, che utilizza una strategia di tuning ciclicamente coerente e un processo di auto-miglioramento progressivo per separare con precisione elementi complessi come i loghi dalle loro superfici di sfondo, garantendo una ricostruzione fedele di entrambi gli strati.

Zheng Gu, Min Lu, Zhida Sun, Dani Lischinski, Daniel Cohen-Or, Hui Huang2026-03-10💻 cs

ARLArena: A Unified Framework for Stable Agentic Reinforcement Learning

Il paper introduce ARLArena, un framework unificato per analizzare la stabilità dell'apprendimento per rinforzo agenziale, e propone SAMPO, un metodo di ottimizzazione che garantisce un addestramento stabile e performante per agenti basati su LLM.

Xiaoxuan Wang, Han Zhang, Haixin Wang, Yidan Shi, Ruoyan Li, Kaiqiao Han, Chenyi Tong, Haoran Deng, Renliang Sun, Alexander Taylor, Yanqiao Zhu, Jason Cong, Yizhou Sun, Wei Wang2026-03-10💻 cs

EmoOmni: Bridging Emotional Understanding and Expression in Omni-Modal LLMs

Il paper presenta EmoOmni, un framework unificato che migliora la comprensione e l'espressione emotiva nei modelli linguistici multimodali omnimodali attraverso l'introduzione della Catena di Pensiero Emotiva (E-CoT), un dataset annotato e una nuova valutazione, ottenendo prestazioni superiori rispetto a modelli più grandi.

Wenjie Tian, Zhixian Zhao, Jingbin Hu, Huakang Chen, Haohe Liu, Binshen Mu, Lei Xie2026-03-10💻 cs

WISER: Wider Search, Deeper Thinking, and Adaptive Fusion for Training-Free Zero-Shot Composed Image Retrieval

Il paper presenta WISER, un framework senza addestramento per il recupero di immagini composte zero-shot che supera i limiti dei metodi esistenti unendo la ricerca a doppio percorso (testo e immagine) con un meccanismo di verifica e raffinamento adattivo, ottenendo prestazioni superiori su diversi benchmark.

Tianyue Wang, Leigang Qu, Tianyu Yang, Xiangzhao Hao, Yifan Xu, Haiyun Guo, Jinqiao Wang2026-03-10💻 cs

On Sample-Efficient Generalized Planning via Learned Transition Models

Questo lavoro propone un approccio di pianificazione generalizzata basato sull'apprendimento esplicito di modelli di transizione neurali che prevedono gli stati successivi, dimostrando che tale metodo supera i pianificatori basati su Transformer nella generalizzazione fuori distribuzione e nell'efficienza dei campioni, richiedendo meno dati e modelli più piccoli.

Nitin Gupta, Vishal Pallagani, John A. Aydin, Biplav Srivastava2026-03-10💻 cs