Risk-Adjusted Harm Scoring for Automated Red Teaming for LLMs in Financial Services

Dit paper introduceert een risicogebaseerd evaluatiekader voor de beveiliging van grote taalmodellen in de financiële sector, dat een gespecialiseerde taxonomie, geautomatiseerde red-teaming en een nieuwe 'Risk-Adjusted Harm Score' combineert om de operationele ernst van schadelijke uitkomsten beter te kwantificeren dan bestaande, domein-agnostische benchmarks.

Fabrizio Dimino, Bhaskarjit Sarmah, Stefano Pasquali2026-03-12💰 q-fin

Speaker Verification with Speech-Aware LLMs: Evaluation and Augmentation

Dit paper introduceert een model-onafhankelijke evaluatieprotocol dat aantoont dat spraakbewuste LLM's een zwakke sprekerdiscriminatie hebben, en lost dit op met een lichtgewicht augmentatie die ECAPA-TDNN-embeddings via LoRA injecteert om een natuurlijke taalinterface te combineren met state-of-the-art sprekerverificatie.

Thomas Thebaud, Yuzhe Wang, Laureano Moro-Velazquez, Jesus Villalba-Lopez, Najim Dehak2026-03-12🤖 cs.AI

Human Presence Detection via Wi-Fi Range-Filtered Doppler Spectrum on Commodity Laptops

Dit paper introduceert een baanbrekende oplossing voor menselijke aanwezigheidsdetectie op standaard laptops die gebruikmaakt van de ingebouwde Wi-Fi-hardware en een nieuwe Range-Filtered Doppler Spectrum-techniek, waardoor externe sensoren of camera's overbodig worden terwijl privacy wordt gewaarborgd en de rekenefficiëntie wordt geoptimaliseerd.

Jessica Sanson, Rahul C. Shah, Valerio Frascolla2026-03-12⚡ eess

Towards Cold-Start Drafting and Continual Refining: A Value-Driven Memory Approach with Application to NPU Kernel Synthesis

Het paper introduceert EvoKernel, een zelfevoluerend agentiek framework dat door middel van een waardegedreven geheugenaanpak en versterkingsleer de uitdagingen van het ontbreken van trainingsdata voor NPU-kernels oplost, waardoor de correctheid van generatieve modellen van 11% naar 83% stijgt en de uitvoeringssnelheid met een factor 3,6 verbetert.

Yujie Zheng, Zhuo Li, Shengtao Zhang, Hanjing Wang, Junjie Sheng, Jiaqian Wang, Junchi Yan, Weinan Zhang, Ying Wen, Bo Tang, Muning Wen2026-03-12🤖 cs.LG

V0.5V_{0.5}: Generalist Value Model as a Prior for Sparse RL Rollouts

Dit paper introduceert V0.5V_{0.5}, een methode die een Generalist Value Model als prior combineert met empirische rollouts via real-time statistische testen en dynamische budgettoewijzing, waardoor een robuuste en efficiënte advantage-baseline wordt verkregen die significant betere prestaties en snellere convergentie bereikt dan GRPO en DAPO op wiskundige redeneerbenchmarks.

Yi-Kai Zhang, Yueqing Sun, Hongyan Hao, Qi Gu, Xunliang Cai, De-Chuan Zhan, Han-Jia Ye2026-03-12🤖 cs.LG

GRACE: A Unified 2D Multi-Robot Path Planning Simulator & Benchmark for Grid, Roadmap, And Continuous Environments

Het paper introduceert GRACE, een geünificeerde 2D-simulatie- en benchmarkomgeving die multi-robot padplanningstaken op verschillende abstractieniveaus (raster, routekaart en continu) mogelijk maakt om transparante en reproduceerbare vergelijkingen tussen verschillende modellen en planners te faciliteren.

Chuanlong Zang, Anna Mannucci, Isabelle Barz, Philipp Schillinger, Florian Lier, Wolfgang Hönig2026-03-12🤖 cs.AI

An Extreme Multi-label Text Classification (XMTC) Library Dataset: What if we took "Use of Practical AI in Digital Libraries" seriously?

Deze paper introduceert een tweetalig corpus en een machine-actievere GND-taxonomie voor het trainen en evalueren van AI-systemen die bibliothecarissen ondersteunen bij het automatisch toewijzen van onderwerpswoorden aan catalogusrecords.

Jennifer D'Souza, Sameer Sadruddin, Maximilian Kähler, Andrea Salfinger, Luca Zaccagna, Francesca Incitti, Lauro Snidaro, Osma Suominen2026-03-12💬 cs.CL

Dynamics-Predictive Sampling for Active RL Finetuning of Large Reasoning Models

Dit artikel introduceert Dynamics-Predictive Sampling (DPS), een methode die de effectiviteit van versterkingslering voor grote redeneermodellen verbetert door door middel van Bayesiaanse inferentie en een verborgen Markov-model de leerdynamiek van prompts te voorspellen, waardoor kostbare rollouts worden geminimaliseerd en het trainingsproces wordt versneld zonder in te leveren op de redeneerprestaties.

Yixiu Mao, Yun Qu, Qi Wang, Heming Zou, Xiangyang Ji2026-03-12🤖 cs.LG

LookaheadKV: Fast and Accurate KV Cache Eviction by Glimpsing into the Future without Generation

LookaheadKV is een lichtgewicht framework dat de prestaties van KV-cache-evictie verbetert door parameter-efficiënte modules te gebruiken om toekomstige belangrijke tokens te voorspellen zonder dure generatie, wat leidt tot een aanzienlijke vermindering van de uitvoeringstijd en kosten bij lange contexttaken.

Jinwoo Ahn, Ingyu Seong, Akhil Kedia, Junhan Kim, Hyemi Jang, Kangwook Lee, Yongkweon Jeon2026-03-12🤖 cs.LG