Competitive Multi-Operator Reinforcement Learning for Joint Pricing and Fleet Rebalancing in AMoD Systems

Diese Arbeit stellt ein Multi-Operator-Reinforcement-Learning-Framework vor, das strategische Preisgestaltung und Flottenumschichtung in wettbewerbsorientierten autonomen Mobilitätsdiensten modelliert und zeigt, wie Wettbewerb durch endogene Nachfragesimulation zu niedrigeren Preisen und anderen Flottenstrategien führt als in Monopolszenarien.

Emil Kragh Toft, Carolin Schmidt, Daniele Gammelli + 1 more2026-03-06🤖 cs.LG

Non-Euclidean Gradient Descent Operates at the Edge of Stability

Die Arbeit interpretiert das Phänomen der „Edge of Stability" durch Richtungs-Glattheit und erweitert es auf nicht-euklidische Normen, wodurch ein einheitlicher, geometrieaware Schärfe-Maßstab entsteht, der zeigt, dass auch nicht-euklidische Gradientenabstiegsverfahren (wie \ell_{\infty}-Descent oder Block-CD) eine progressive Schärfung bis zu einem Schwellenwert von 2/η2/\eta aufweisen.

Rustem Islamov, Michael Crawshaw, Jeremy Cohen + 1 more2026-03-06🔢 math

Measuring the Fragility of Trust: Devising Credibility Index via Explanation Stability (CIES) for Business Decision Support Systems

Diese Arbeit stellt den Credibility Index via Explanation Stability (CIES) vor, eine mathematisch fundierte Metrik, die die Stabilität von Erklärungen in erklärbarer KI unter realistischen Geschäftsbedingungen misst und damit Entscheidungsträgern ein zuverlässiges Instrument zur Bewertung der Vertrauenswürdigkeit von KI-gestützten Entscheidungssystemen bietet.

Alin-Gabriel Vaduva, Simona-Vasilica Oprea, Adela Bara2026-03-06🤖 cs.AI

Deep Learning-Driven Friendly Jamming for Secure Multicarrier ISAC Under Channel Uncertainty

Diese Arbeit stellt einen tiefenlernbasierten Rahmen für sichere, mehrträgerbasierte ISAC-Systeme unter Kanalunsicherheit vor, der mithilfe von Radarecho-Feedback und einem neuartigen nichtparametrischen FIM-Schätzer auf f-Divergenz-Basis eine robuste, zielgerichtete Freundliche Störung ohne Kenntnis der Abhörposition ermöglicht und dabei durch einen quantisierten Tensor-Train-Encoder eine signifikante Modellkomprimierung erreicht.

Bui Minh Tuan, Van-Dinh Nguyen, Diep N. Nguyen + 5 more2026-03-06🤖 cs.LG

Decoupling Task and Behavior: A Two-Stage Reward Curriculum in Reinforcement Learning for Robotics

Die vorgestellte Arbeit schlägt ein zweistufiges Reward-Curriculum vor, das aufgabenbezogene Ziele von Verhaltensaspekten entkoppelt, um das Training von Robotern in der Deep Reinforcement Learning zu stabilisieren und effizienter zu gestalten, indem zunächst eine vereinfachte Belohnungsfunktion für die Exploration genutzt wird, bevor zusätzliche Verhaltenskriterien wie Energieeffizienz eingeführt werden.

Kilian Freitag, Knut Åkesson, Morteza Haghir Chehreghani2026-03-06🤖 cs.LG