Towards Understanding Subliminal Learning: When and How Hidden Biases Transfer

Questo studio dimostra che l'apprendimento subliminale, ovvero il trasferimento di bias nascosti dai modelli insegnanti a quelli studenti durante la distillazione, non dipende dalla fuoriuscita di informazioni logit ma da un piccolo insieme di token di divergenza critici nei primi livelli del modello, la cui rimozione o modifica rende il fenomeno fragile e facilmente sopprimibile.

Simon Schrodi, Elias Kempf, Fazl Barez + 1 more2026-03-06💻 cs

PrefDisco: Benchmarking Proactive Personalized Reasoning

Il paper introduce PrefDisco, un nuovo metodo di valutazione e metrica (PrefAlign) che trasforma i benchmark statici in compiti interattivi per dimostrare come i modelli linguistici debbano sviluppare un ragionamento personalizzato proattivo, basato su domande strategiche per allinearsi alle preferenze individuali degli utenti in scenari senza dati storici, superando i limiti degli approcci attuali che trattano separatamente la risoluzione dei compiti e l'allineamento alle preferenze.

Shuyue Stella Li, Avinandan Bose, Faeze Brahman + 4 more2026-03-06💻 cs

OmniVideoBench: Towards Audio-Visual Understanding Evaluation for Omni MLLMs

Il paper presenta OmniVideoBench, un benchmark su larga scala composto da 1000 coppie domanda-risposta con tracce di ragionamento, progettato per valutare in modo rigoroso e coerente le capacità di comprensione sinergica audio-visiva dei modelli linguistici multimodali (MLLM), evidenziando il divario significativo tra le prestazioni attuali dei modelli e il ragionamento umano.

Caorui Li, Yu Chen, Yiyan Ji + 40 more2026-03-06💻 cs

CBF-RL: Safety Filtering Reinforcement Learning in Training with Control Barrier Functions

Il paper propone CBF-RL, un framework che integra le Funzioni di Barriera di Controllo (CBF) direttamente nell'addestramento del Reinforcement Learning per internalizzare i vincoli di sicurezza nella politica appresa, permettendo così un dispiegamento sicuro e robusto su robot reali senza la necessità di filtri di sicurezza in tempo reale.

Lizhi Yang, Blake Werner, Massimiliano de Sa + 1 more2026-03-06💻 cs

Grasp Any Region: Towards Precise, Contextual Pixel Understanding for Multimodal LLMs

Il paper introduce Grasp Any Region (GAR), un modello che supera i limiti delle precedenti MLLM regionali integrando il contesto globale e il replay delle caratteristiche per ottenere una comprensione visiva precisa, interattiva e capace di ragionamento compositivo su qualsiasi regione, come dimostrato dalle sue prestazioni superiori su benchmark specifici e sulla capacità di generalizzazione ai video.

Haochen Wang, Yuhao Wang, Tao Zhang + 13 more2026-03-06💻 cs

GhostEI-Bench: Do Mobile Agents Resilience to Environmental Injection in Dynamic On-Device Environments?

Il paper introduce GhostEI-Bench, il primo benchmark progettato per valutare la resilienza degli agenti mobili basati su modelli visione-linguaggio contro gli attacchi di iniezione ambientale in ambienti dinamici, rivelando la loro vulnerabilità critica a elementi UI manipolati e proponendo un protocollo di analisi per migliorare la sicurezza.

Chiyu Chen, Xinhao Song, Yunkai Chai, Yang Yao, Haodong Zhao, Lijun Li, Jie Li, Yan Teng, Gongshen Liu, Yingchun Wang2026-03-06🔒 cs.CR

LLEMA: Evolutionary Search with LLMs for Multi-Objective Materials Discovery

Il paper presenta LLEMA, un framework unificato che combina la conoscenza scientifica dei modelli linguistici di grandi dimensioni con regole evolutive e affinamento basato sulla memoria per scoprire nuovi materiali multi-obiettivo chimicamente plausibili e termodinamicamente stabili con prestazioni superiori rispetto alle tecniche esistenti.

Nikhil Abhyankar, Sanchit Kabra, Saaketh Desai + 1 more2026-03-06🔬 cond-mat.mtrl-sci