The Radio-Frequency Transformer for Signal Separation

Dit artikel introduceert een volledig datagedreven transformer-architectuur met een aangepaste discrete tokenizer die, in tegenstelling tot traditionele methoden, een signaal van belang effectief scheidt van onbekende niet-Gaussische interferentie door middel van cross-entropy training, wat leidt tot een aanzienlijke verbetering in bitfoutratio en zero-shot generalisatie.

Egor Lifar, Semyon Savkin, Rachana Madhukara, Tejas Jayashankar, Yury Polyanskiy, Gregory W. Wornell2026-03-11🤖 cs.LG

MM-Zero: Self-Evolving Multi-Model Vision Language Models From Zero Data

Dit paper introduceert MM-Zero, het eerste RL-gebaseerde framework dat Vision Language Models zonder enige trainingsdata zelf kan laten evolueren door middel van een unieke drie-rollen architectuur (voorsteller, coder en solver) die samenwerken om visuele concepten te genereren en redeneervermogen te verbeteren.

Zongxia Li, Hongyang Du, Chengsong Huang, Xiyang Wu, Lantao Yu, Yicheng He, Jing Xie, Xiaomin Wu, Zhichao Liu, Jiarui Zhang, Fuxiao Liu2026-03-11🤖 cs.LG

Strategically Robust Multi-Agent Reinforcement Learning with Linear Function Approximation

Deze paper introduceert \texttt{RQRE-OVI}, een nieuw algoritme dat Risk-Sensitive Quantal Response Equilibrium (RQRE) berekent in grote Markov-games met lineaire functiebenadering, waardoor een unieke en stabiele oplossing wordt gevonden die een waardevolle afweging biedt tussen prestatie en robuustheid ten opzichte van traditionele Nash-evenwichten.

Jake Gonzales, Max Horwitz, Eric Mazumdar, Lillian J. Ratliff2026-03-11🤖 cs.LG

Beyond Test-Time Training: Learning to Reason via Hardware-Efficient Optimal Control

Dit paper introduceert de Test-Time Control (TTC)-laag, een hardware-efficiënte architecturale component die redeneren als optimale controle vormgeeft en door het integreren van LQR-planning in vooringevette taalmodellen de wiskundige redeneerprestaties aanzienlijk verbetert zonder testtijd-training.

Peihao Wang, Shan Yang, Xijun Wang, Tesi Xiao, Xin Liu, Changlong Yu, Yu Lou, Pan Li, Zhangyang Wang, Ming Lin, René Vidal2026-03-11🤖 cs.LG

A Generative Sampler for distributions with possible discrete parameter based on Reversibility

Deze paper introduceert een uniek generatief steekproefkader dat, door het minimaliseren van de Maximum Mean Discrepancy tussen voorwaartse en achterwaartse Markov-trajecten onder de beperking van reversibiliteit, het mogelijk maakt om te leren van complexe, niet-genormaliseerde verdelingen in continue, discrete en hybride ruimtes zonder gebruik te maken van gradients of scorefuncties.

Lei Li, Zhen Wang, Lishuo Zhang2026-03-11🤖 cs.LG

Transductive Generalization via Optimal Transport and Its Application to Graph Node Classification

Dit artikel introduceert nieuwe, efficiënt berekenbare transductieve generalisatiegrenzen voor grafnodeclassificatie op basis van optimale transport en Wasserstein-afstanden, die empirisch beter presteren dan klassieke complexiteitsmaten en het niet-monotone effect van GNN-diepte op generalisatie verklaren.

MoonJeong Park, Seungbeom Lee, Kyungmin Kim, Jaeseung Heo, Seunghyuk Cho, Shouheng Li, Sangdon Park, Dongwoo Kim2026-03-11🤖 cs.LG

DendroNN: Dendrocentric Neural Networks for Energy-Efficient Classification of Event-Based Data

Dit artikel introduceert DendroNN, een energiezuinig, niet-gedifferentieerd neuronaal netwerk dat inspiratie put uit dendritische sequentiedetectie om event-based data te verwerken en via een asynchrone hardware-architectuur een tot vier keer hogere efficiëntie bereikt dan bestaande neuromorfe systemen.

Jann Krausse, Zhe Su, Kyrus Mama, Maryada, Klaus Knobloch, Giacomo Indiveri, Jürgen Becker2026-03-11🤖 cs.AI

On Regret Bounds of Thompson Sampling for Bayesian Optimization

Dit artikel vult bestaande kennisgaten over de spijtbegrensingen van Gaussian Process Thompson Sampling (GP-TS) in door zowel een ondergrens als verbeterde bovengrenzen voor de verwachte, leniente en cumulatieve spijt af te leiden, waarbij wordt aangetoond dat GP-TS een polynoomafhankelijkheid van $1/\delta$ vertoont en dat recente verbeteringen voor GP-UCB ook op GP-TS van toepassing zijn.

Shion Takeno, Shogo Iwazaki2026-03-11🤖 cs.LG

A Gaussian Comparison Theorem for Training Dynamics in Machine Learning

Dit paper presenteert een niet-asymptotisch resultaat dat de trainingsdynamica van machine learning-modellen onder een Gaussisch mengselmodel koppelt aan een makkelijker te analyseren surrogaat-dynamisch systeem, waarbij gebruik wordt gemaakt van de Gordon-vergelijkingstheorema om de geldigheid van dynamische mean-field-expressies te bewijzen en een iteratief verfijningsschema voor niet-asymptotische scenario's voor te stellen.

Ashkan Panahi2026-03-11🤖 cs.LG

Democratising Clinical AI through Dataset Condensation for Classical Clinical Models

Dit artikel introduceert een differentieel-private, nulde-orde optimalisatieframework dat datasetcondensatie mogelijk maakt voor niet-differentieerbare klinische modellen, zoals beslisbomen en Cox-regressie, waardoor veilige en modelonafhankelijke datauitwisseling voor klinische voorspellingsopdrachten wordt gerealiseerd zonder de privacy van patiënten te schaden.

Anshul Thakur, Soheila Molaei, Pafue Christy Nganjimi, Joshua Fieggen, Andrew A. S. Soltan, Danielle Belgrave, Lei Clifton, David A. Clifton2026-03-11🤖 cs.AI