Shadow in the Cache: Unveiling and Mitigating Privacy Risks of KV-cache in LLM Inference

Dit paper introduceert drie nieuwe aanvallen die gevoelige invoer van grote taalmodellen via de KV-cache kunnen reconstrueren en stelt KV-Cloak voor, een lichtgewicht verdedigingsmechanisme dat deze privacyrisico's effectief neutraliseert zonder de prestaties of nauwkeurigheid van het model te beïnvloeden.

Zhifan Luo, Shuo Shao, Su Zhang, Lijing Zhou, Yuke Hu, Chenxu Zhao, Zhihao Liu, Zhan Qin2026-03-12💬 cs.CL

The Yokai Learning Environment: Tracking Beliefs Over Space and Time

Dit paper introduceert het Yokai Learning Environment (YLE), een uitdagende nieuwe benchmark voor zero-shot coördinatie die de beperkingen van de bestaande Hanabi-benchmark blootlegt door te vereisen dat agenten geloofsoverdracht, ambiguïteit en spelbeëindiging beheren, waardoor wordt aangetoond dat huidige toonaangevende methoden in YLE falen terwijl ze in Hanabi uitstekend presteren.

Constantin Ruhdorfer, Matteo Bortoletto, Johannes Forkel, Jakob Foerster, Andreas Bulling2026-03-12🤖 cs.AI

Global Minimizers of Sigmoid Contrastive Loss

Dit artikel biedt een theoretische verklaring voor de voordelen van het synchroniseren van trainbare inverse temperatuur en bias onder de sigmoid-verliesfunctie, zoals gebruikt in SigLIP-modellen, door een nieuw combinatorisch object genaamd (m,brel)(\mathsf{m}, \mathsf{b}_{\mathsf{rel}})-Constellations te introduceren dat de succesvolle prestaties, de modale kloof en de benodigde dimensie voor kwalitatief hoogwaardige representaties verklaart.

Kiril Bangachev, Guy Bresler, Iliyas Noman, Yury Polyanskiy2026-03-12🤖 cs.LG

RADAR: Reasoning-Ability and Difficulty-Aware Routing for Reasoning LLMs

Het paper introduceert RADAR, een lichtgewicht en interpreteerbaar routeringskader dat, geïnspireerd door psychometrie, query's dynamisch toewijst aan de meest geschikte reasoning-LLM-configuratie op basis van de moeilijkheidsgraad van de vraag en het beschikbare reasoning-budget om zo de prestaties te maximaliseren en de kosten te optimaliseren.

Nigel Fernandez, Branislav Kveton, Ryan A. Rossi, Andrew S. Lan, Zichao Wang2026-03-12🤖 cs.AI

BiasBusters: Uncovering and Mitigating Tool Selection Bias in Large Language Models

Dit paper introduceert een benchmark om de systematische bias in de tool-selectie van LLM-agents te kwantificeren, identificeert metadata en pre-training als belangrijkste oorzaken, en stelt een lichtgewicht mitigatiestrategie voor om deze onrechtvaardige voorkeuren te verminderen.

Thierry Blankenstein, Jialin Yu, Zixuan Li, Vassilis Plachouras, Sunando Sengupta, Philip Torr, Yarin Gal, Alasdair Paren, Adel Bibi2026-03-12🤖 cs.AI

A Systematic Evaluation of Self-Supervised Learning for Label-Efficient Sleep Staging with Wearable EEG

Dit artikel presenteert de eerste systematische evaluatie van zelftoezichthoudend leren (SSL) voor slaapstadiëring met draagbare EEG, waarbij wordt aangetoond dat deze aanpak de prestaties aanzienlijk verbetert en klinisch bruikbare nauwkeurigheid bereikt met slechts 5% tot 10% van de benodigde gelabelde data.

Emilio Estevan, María Sierra-Torralba, Eduardo López-Larraz, Luis Montesano2026-03-12🤖 cs.AI

Hierarchical Dual-Strategy Unlearning for Biomedical and Healthcare Intelligence Using Imperfect and Privacy-Sensitive Medical Data

Deze paper introduceert een hiërarchisch dubbelstrategisch kader voor selectief vergeten in medische grote taalmodellen dat, door het combineren van geometrisch beperkte gradiëntupdates en conceptbewuste tokeninterventies, specifieke privacygevoelige kennis effectief verwijdert terwijl fundamentele medische competenties behouden blijven en slechts 0,1% van de parameters wordt aangepast.

Yi Zhang, Chao Zhang, Zijian Li, Tianxiang Xu, Kunyu Zhang, Zhan Gao, Meinuo Li, Xiaohan Zhang, Qichao Qi, Bing Chen2026-03-12🤖 cs.LG