OmniVideoBench: Towards Audio-Visual Understanding Evaluation for Omni MLLMs

Il paper presenta OmniVideoBench, un benchmark su larga scala composto da 1000 coppie domanda-risposta con tracce di ragionamento, progettato per valutare in modo rigoroso e coerente le capacità di comprensione sinergica audio-visiva dei modelli linguistici multimodali (MLLM), evidenziando il divario significativo tra le prestazioni attuali dei modelli e il ragionamento umano.

Caorui Li, Yu Chen, Yiyan Ji + 40 more2026-03-06💻 cs

CBF-RL: Safety Filtering Reinforcement Learning in Training with Control Barrier Functions

Il paper propone CBF-RL, un framework che integra le Funzioni di Barriera di Controllo (CBF) direttamente nell'addestramento del Reinforcement Learning per internalizzare i vincoli di sicurezza nella politica appresa, permettendo così un dispiegamento sicuro e robusto su robot reali senza la necessità di filtri di sicurezza in tempo reale.

Lizhi Yang, Blake Werner, Massimiliano de Sa + 1 more2026-03-06💻 cs

Grasp Any Region: Towards Precise, Contextual Pixel Understanding for Multimodal LLMs

Il paper introduce Grasp Any Region (GAR), un modello che supera i limiti delle precedenti MLLM regionali integrando il contesto globale e il replay delle caratteristiche per ottenere una comprensione visiva precisa, interattiva e capace di ragionamento compositivo su qualsiasi regione, come dimostrato dalle sue prestazioni superiori su benchmark specifici e sulla capacità di generalizzazione ai video.

Haochen Wang, Yuhao Wang, Tao Zhang + 13 more2026-03-06💻 cs

GhostEI-Bench: Do Mobile Agents Resilience to Environmental Injection in Dynamic On-Device Environments?

Il paper introduce GhostEI-Bench, il primo benchmark progettato per valutare la resilienza degli agenti mobili basati su modelli visione-linguaggio contro gli attacchi di iniezione ambientale in ambienti dinamici, rivelando la loro vulnerabilità critica a elementi UI manipolati e proponendo un protocollo di analisi per migliorare la sicurezza.

Chiyu Chen, Xinhao Song, Yunkai Chai, Yang Yao, Haodong Zhao, Lijun Li, Jie Li, Yan Teng, Gongshen Liu, Yingchun Wang2026-03-06🔒 cs.CR

LLEMA: Evolutionary Search with LLMs for Multi-Objective Materials Discovery

Il paper presenta LLEMA, un framework unificato che combina la conoscenza scientifica dei modelli linguistici di grandi dimensioni con regole evolutive e affinamento basato sulla memoria per scoprire nuovi materiali multi-obiettivo chimicamente plausibili e termodinamicamente stabili con prestazioni superiori rispetto alle tecniche esistenti.

Nikhil Abhyankar, Sanchit Kabra, Saaketh Desai + 1 more2026-03-06🔬 cond-mat.mtrl-sci

FLoC: Facility Location-Based Efficient Visual Token Compression for Long Video Understanding

Il paper presenta FLoC, un framework di compressione efficiente e senza addestramento per i token visivi nei modelli multimodali su video lunghi, che utilizza una funzione di localizzazione delle strutture per selezionare in modo rapido e ottimale un sottoinsieme rappresentativo di token, migliorando significativamente le prestazioni su vari benchmark.

Janghoon Cho, Jungsoo Lee, Munawar Hayat + 3 more2026-03-06💻 cs