Reward Under Attack: Analyzing the Robustness and Hackability of Process Reward Models

Deze studie toont aan dat Process Reward Models (PRMs) kwetsbaar zijn voor adversariale aanvallen en eerder functioneren als fluwheidsdetectoren dan als betrouwbare verifiers van redenering, waardoor de auteurs een drielaags diagnostisch framework en PRM-BiasBench introduceren om deze zwaktes te kwantificeren en op te lossen.

Rishabh Tiwari, Aditya Tomar, Udbhav Bamba, Monishwaran Maheswaran, Heng Yang, Michael W. Mahoney, Kurt Keutzer, Amir Gholami2026-03-10🤖 cs.LG

Quantum Deep Learning: A Comprehensive Review

Dit artikel biedt een uitgebreide review van Quantum Deep Learning door een operationele definitie en taxonomie te presenteren, de theoretische principes en hardware-implementaties te analyseren, claims van quantumvoordeel kritisch te beoordelen, en een roadmap te schetsen voor de overgang van huidige demonstraties naar schaalbare, fouttolerante systemen.

Yanjun Ji, Zhao-Yun Chen, Marco Roth, David A. Kreplin, Christian Schiffer, Martin King, Oliver Anton, M. Sahnawaz Alam, Markus Krutzik, Dennis Willsch, Ludwig Mathey, Frank K. Wilhelm, Guo-Ping Guo2026-03-10⚛️ quant-ph

HURRI-GAN: A Novel Approach for Hurricane Bias-Correction Beyond Gauge Stations using Generative Adversarial Networks

Dit paper introduceert HURRI-GAN, een nieuw AI-gestuurd model dat fysieke simulaties van orkanen corrigeert met generatieve adversariale netwerken om de rekentijd te verkorten en nauwkeurige voorspellingen te genereren, zelfs op locaties waar geen meetstations aanwezig zijn.

Noujoud Nadera, Hadi Majed, Stefanos Giaremis, Rola El Osta, Clint Dawson, Carola Kaiser, Hartmut Kaiser2026-03-10🤖 cs.LG