Shadow in the Cache: Unveiling and Mitigating Privacy Risks of KV-cache in LLM Inference

Questo articolo analizza per la prima volta i rischi di privacy legati alla cache KV nell'inferenza dei grandi modelli linguistici, dimostrando come sia possibile ricostruire input sensibili e proponendo KV-Cloak, un meccanismo di difesa leggero ed efficiente che neutralizza tali minacce senza compromettere accuratezza o prestazioni.

Zhifan Luo, Shuo Shao, Su Zhang, Lijing Zhou, Yuke Hu, Chenxu Zhao, Zhihao Liu, Zhan Qin2026-03-12💬 cs.CL

The Yokai Learning Environment: Tracking Beliefs Over Space and Time

Questo articolo introduce l'Ambiente di Apprendimento Yokai (YLE), un nuovo benchmark open-source per il coordinamento a zero-shot che supera i limiti dell'ambiente Hanabi richiedendo agli agenti di costruire un terreno comune attraverso il ragionamento su credenze dinamiche e informazioni ambigue, rivelando così che i metodi all'avanguardia falliscono nel mantenere modelli interni coerenti con partner sconosciuti.

Constantin Ruhdorfer, Matteo Bortoletto, Johannes Forkel, Jakob Foerster, Andreas Bulling2026-03-12🤖 cs.AI

From Next Token Prediction to (STRIPS) World Models

Questo studio dimostra che sia modelli simbolici allineati (STRIPS Transformer) sia architetture transformer standard con meccanismi di attenzione specifici (stick-breaking) possono apprendere modelli del mondo da tracce di azioni per supportare la pianificazione, sebbene i transformer standard mostrino una migliore ottimizzazione e generalizzazione rispetto alle controparti simboliche.

Carlos Núñez-Molina, Vicenç Gómez, Hector Geffner2026-03-12🤖 cs.AI

Global Minimizers of Sigmoid Contrastive Loss

Questo articolo analizza teoricamente i minimi globali della funzione di perdita contrastiva sigmoide, introducendo le "costellazioni" come nuova struttura combinatoria per spiegare il successo dei modelli SigLIP, il fenomeno del divario modale e l'importanza della sincronizzazione di temperatura e bias, proponendo inoltre una riparametrizzazione che migliora la dinamica di addestramento.

Kiril Bangachev, Guy Bresler, Iliyas Noman, Yury Polyanskiy2026-03-12🤖 cs.LG

BiasBusters: Uncovering and Mitigating Tool Selection Bias in Large Language Models

Il paper "BiasBusters" identifica e quantifica i pregiudizi sistematici nella selezione degli strumenti da parte dei modelli linguistici di grandi dimensioni, ne analizza le cause principali (come l'allineamento semantico e l'esposizione pre-addestramento) e propone una strategia di mitigazione efficace per garantire un'equa distribuzione tra fornitori di strumenti equivalenti.

Thierry Blankenstein, Jialin Yu, Zixuan Li, Vassilis Plachouras, Sunando Sengupta, Philip Torr, Yarin Gal, Alasdair Paren, Adel Bibi2026-03-12🤖 cs.AI

MonitorVLM:A Vision Language Framework for Safety Violation Detection in Mining Operations

Il paper presenta MonitorVLM, un innovativo framework visione-linguaggio che rileva automaticamente le violazioni della sicurezza nelle operazioni minerarie analizzando i flussi video, grazie a un dataset specifico, un modulo di filtraggio delle clausole e un ingranditore comportamentale che migliorano significativamente precisione e richiamo rispetto ai modelli di base.

Jiang Wu, Sichao Wu, Yinsong Ma, Guangyuan Yu, Haoyuan Xu, Lifang Zheng, Jingliang Duan2026-03-12🤖 cs.AI

A Systematic Evaluation of Self-Supervised Learning for Label-Efficient Sleep Staging with Wearable EEG

Questo studio presenta la prima valutazione sistematica dell'apprendimento auto-supervisionato per la stadiazione del sonno tramite EEG indossabile, dimostrando che tale approccio supera i modelli supervisionati e quelli generici, raggiungendo accuratezza clinica con una frazione significativamente inferiore di dati etichettati.

Emilio Estevan, María Sierra-Torralba, Eduardo López-Larraz, Luis Montesano2026-03-12🤖 cs.AI

HyWA: Hypernetwork Weight Adapting Personalized Voice Activity Detection

Il paper propone HyWA, un metodo che utilizza una rete iperperazionale per generare pesi personalizzati in un modello VAD standard, migliorando le prestazioni di rilevamento della voce del parlante target e semplificando il deployment rispetto alle tecniche di condizionamento esistenti.

Mahsa Ghazvini Nejad, Hamed Jafarzadeh Asl, Amin Edraki, Mohammadreza Sadeghi, Masoud Asgharian, Yuanhao Yu, Vahid Partovi Nia2026-03-12⚡ eess

MVCustom: Multi-View Customized Diffusion via Geometric Latent Rendering and Completion

Il paper introduce MVCustom, un nuovo framework basato su diffusione che risolve il problema della generazione multi-vista personalizzata garantendo coerenza geometrica e fedeltà del soggetto attraverso una rappresentazione a campo di feature, un'attenzione spaziotemporale densa e tecniche di rendering e completamento latente consapevoli della profondità.

Minjung Shin, Hyunin Cho, Sooyeon Go, Jin-Hwa Kim, Youngjung Uh2026-03-12🤖 cs.AI

Predicting kernel regression learning curves from only raw data statistics

Questo articolo presenta un quadro teorico, basato sull'ansatz dell'autostruttura di Hermite (HEA), che permette di prevedere le curve di apprendimento della regressione a kernel su dataset reali analizzando solo la matrice di covarianza empirica e una decomposizione polinomiale della funzione target, dimostrando inoltre che le MLP in regime di apprendimento delle caratteristiche seguono la stessa gerarchia di polinomi di Hermite prevista dalla teoria.

Dhruva Karkada, Joseph Turnbull, Yuxi Liu, James B. Simon2026-03-12🤖 cs.LG

Expert Evaluation of LLM World Models: A High-TcT_c Superconductivity Case Study

Questo studio valuta la capacità di sei sistemi di modelli linguistici di rispondere a domande complesse sulla superconduttività ad alta temperatura, dimostrando che le soluzioni basate su retrieval-augmented generation (RAG) su letteratura curata superano i modelli chiusi esistenti in termini di completezza fattuale e supporto evidenziale.

Haoyu Guo, Maria Tikhanovskaya, Paul Raccuglia + 20 more2026-03-12🤖 cs.AI

What We Don't C: Manifold Disentanglement for Structured Discovery

Il paper introduce "What We Don't C", un approccio innovativo basato sul flusso latente che disaccoppia i sottospazi latenti rimuovendo esplicitamente le informazioni delle variabili di condizionamento, generando così rappresentazioni residue significative per l'analisi e il controllo di fattori di variazione non ancora catturati.

Brian Rogers, Micah Bowles, Chris J. Lintott, Steve Croft, Oliver N. F. King, James Kostas Ray2026-03-12🤖 cs.AI

D-GAP: Improving Out-of-Domain Robustness via Dataset-Agnostic and Gradient-Guided Augmentation in Frequency and Pixel Spaces

Il paper propone D-GAP, un metodo di augmentation dataset-agnostico e guidato dal gradiente che migliora la robustezza fuori distribuzione applicando perturbazioni mirate nello spettro di ampiezza e nei valori dei pixel per ridurre i bias di apprendimento specifici del dominio e ripristinare i dettagli spaziali.

Ruoqi Wang, Haitao Wang, Shaojie Guo, Qiong Luo2026-03-12🤖 cs.AI

REMSA: Foundation Model Selection for Remote Sensing via a Constraint-Aware Agent

Il paper presenta REMSA, un agente consapevole dei vincoli che, sfruttando il nuovo database strutturato RS-FMD contenente oltre 160 modelli fondazione per il telerilevamento, automatizza la selezione del modello più adatto a specifiche richieste in linguaggio naturale, superando le soluzioni esistenti in termini di accuratezza e utilità pratica.

Binger Chen, Tacettin Emre Bök, Behnood Rasti, Volker Markl, Begüm Demir2026-03-12🤖 cs.AI

Hierarchical Dual-Strategy Unlearning for Biomedical and Healthcare Intelligence Using Imperfect and Privacy-Sensitive Medical Data

Questo articolo presenta un framework di disapprendimento gerarchico a doppia strategia che, integrando aggiornamenti del gradiente vincolati geometricamente e interventi a livello di token consapevoli dei concetti, rimuove selettivamente conoscenze mediche specifiche da modelli linguistici preservando le competenze fondamentali e garantendo la privacy con modifiche minime ai parametri.

Yi Zhang, Chao Zhang, Zijian Li, Tianxiang Xu, Kunyu Zhang, Zhan Gao, Meinuo Li, Xiaohan Zhang, Qichao Qi, Bing Chen2026-03-12🤖 cs.LG