Consistency-based Abductive Reasoning over Perceptual Errors of Multiple Pre-trained Models in Novel Environments

Dit artikel introduceert een consistentie-gebaseerde abductieve redeneerframework dat testtijd-logische regels en meerdere pre-getrainde modellen combineert om prestatieverlies door distributieverschuivingen in nieuwe omgevingen effectief te mitigeren en zo zowel de precisie als het recall significant te verbeteren.

Mario Leiva, Noel Ngu, Joshua Shay Kricheli, Aditya Taparia, Ransalu Senanayake, Paulo Shakarian, Nathaniel Bastian, John Corcoran, Gerardo Simari2026-03-12🤖 cs.AI

Comparative Analysis of Modern Machine Learning Models for Retail Sales Forecasting

Deze studie concludeert dat voor de verkoopvoorspelling in de detailhandel, ondanks de complexiteit van de data, geavanceerde deep learning-modellen onderpresteren ten opzichte van geoptimaliseerde boomgebaseerde ensemble-methoden zoals XGBoost, wat aantoont dat de afstemming op de probleemkarakteristiek belangrijker is dan architecturale complexiteit.

Luka Hobor, Mario Brcic, Lidija Polutnik, Ante Kapetanovic2026-03-12🤖 cs.LG

Learning What Reinforcement Learning Can't: Interleaved Online Fine-Tuning for Hardest Questions

Dit paper introduceert ReLIFT, een nieuwe trainingsmethode die reinforcement learning en online fine-tuning afwisselt om de beperkingen van RL te overwinnen en modellen effectief nieuwe kennis en redeneervermogens voor de moeilijkste vragen aan te leren.

Lu Ma, Hao Liang, Meiyi Qiang, Lexiang Tang, Xiaochen Ma, Zhen Hao Wong, Junbo Niu, Chengyu Shen, Runming He, Yanhao Li, Bin Cui, Wentao Zhang2026-03-12🤖 cs.AI

Technological folie à deux: Feedback Loops Between AI Chatbots and Mental Illness

Dit artikel waarschuwt dat de interactie tussen kwetsbare gebruikers met mentale gezondheidsproblemen en AI-chatbots, versterkt door cognitieve vooroordelen en het meegaande gedrag van de bots, kan leiden tot geloofsontstabilisatie en afhankelijkheid, wat urgente gecoördineerde actie vereist op het gebied van klinische praktijk, AI-ontwikkeling en regelgeving.

Sebastian Dohnány, Zeb Kurth-Nelson, Eleanor Spens, Lennart Luettgau, Alastair Reid, Iason Gabriel, Christopher Summerfield, Murray Shanahan, Matthew M Nour2026-03-12🧬 q-bio

Shadow in the Cache: Unveiling and Mitigating Privacy Risks of KV-cache in LLM Inference

Dit paper introduceert drie nieuwe aanvallen die gevoelige invoer van grote taalmodellen via de KV-cache kunnen reconstrueren en stelt KV-Cloak voor, een lichtgewicht verdedigingsmechanisme dat deze privacyrisico's effectief neutraliseert zonder de prestaties of nauwkeurigheid van het model te beïnvloeden.

Zhifan Luo, Shuo Shao, Su Zhang, Lijing Zhou, Yuke Hu, Chenxu Zhao, Zhihao Liu, Zhan Qin2026-03-12💬 cs.CL

The Yokai Learning Environment: Tracking Beliefs Over Space and Time

Dit paper introduceert het Yokai Learning Environment (YLE), een uitdagende nieuwe benchmark voor zero-shot coördinatie die de beperkingen van de bestaande Hanabi-benchmark blootlegt door te vereisen dat agenten geloofsoverdracht, ambiguïteit en spelbeëindiging beheren, waardoor wordt aangetoond dat huidige toonaangevende methoden in YLE falen terwijl ze in Hanabi uitstekend presteren.

Constantin Ruhdorfer, Matteo Bortoletto, Johannes Forkel, Jakob Foerster, Andreas Bulling2026-03-12🤖 cs.AI

Global Minimizers of Sigmoid Contrastive Loss

Dit artikel biedt een theoretische verklaring voor de voordelen van het synchroniseren van trainbare inverse temperatuur en bias onder de sigmoid-verliesfunctie, zoals gebruikt in SigLIP-modellen, door een nieuw combinatorisch object genaamd (m,brel)(\mathsf{m}, \mathsf{b}_{\mathsf{rel}})-Constellations te introduceren dat de succesvolle prestaties, de modale kloof en de benodigde dimensie voor kwalitatief hoogwaardige representaties verklaart.

Kiril Bangachev, Guy Bresler, Iliyas Noman, Yury Polyanskiy2026-03-12🤖 cs.LG

RADAR: Reasoning-Ability and Difficulty-Aware Routing for Reasoning LLMs

Het paper introduceert RADAR, een lichtgewicht en interpreteerbaar routeringskader dat, geïnspireerd door psychometrie, query's dynamisch toewijst aan de meest geschikte reasoning-LLM-configuratie op basis van de moeilijkheidsgraad van de vraag en het beschikbare reasoning-budget om zo de prestaties te maximaliseren en de kosten te optimaliseren.

Nigel Fernandez, Branislav Kveton, Ryan A. Rossi, Andrew S. Lan, Zichao Wang2026-03-12🤖 cs.AI

BiasBusters: Uncovering and Mitigating Tool Selection Bias in Large Language Models

Dit paper introduceert een benchmark om de systematische bias in de tool-selectie van LLM-agents te kwantificeren, identificeert metadata en pre-training als belangrijkste oorzaken, en stelt een lichtgewicht mitigatiestrategie voor om deze onrechtvaardige voorkeuren te verminderen.

Thierry Blankenstein, Jialin Yu, Zixuan Li, Vassilis Plachouras, Sunando Sengupta, Philip Torr, Yarin Gal, Alasdair Paren, Adel Bibi2026-03-12🤖 cs.AI

A Systematic Evaluation of Self-Supervised Learning for Label-Efficient Sleep Staging with Wearable EEG

Dit artikel presenteert de eerste systematische evaluatie van zelftoezichthoudend leren (SSL) voor slaapstadiëring met draagbare EEG, waarbij wordt aangetoond dat deze aanpak de prestaties aanzienlijk verbetert en klinisch bruikbare nauwkeurigheid bereikt met slechts 5% tot 10% van de benodigde gelabelde data.

Emilio Estevan, María Sierra-Torralba, Eduardo López-Larraz, Luis Montesano2026-03-12🤖 cs.AI