Multimodal Multi-Agent Ransomware Analysis Using AutoGen

Diese Arbeit stellt ein multimodales Multi-Agenten-Framework vor, das mithilfe von AutoEncoders und einem Transformer-Klassifikator statische, dynamische und Netzwerkdaten integriert, um durch einen iterativen Feedback-Mechanismus die Ransomware-Klassifizierungsgenauigkeit signifikant zu verbessern und eine zuverlässige Erkennung auch bei Null-Tag-Bedrohungen zu ermöglichen.

Asifullah Khan, Aimen Wadood, Mubashar Iqbal + 1 more2026-03-04🤖 cs.AI

Near-Constant Strong Violation and Last-Iterate Convergence for Online CMDPs via Decaying Safety Margins

Die Arbeit stellt den FlexDOME-Algorithmus vor, der als erste Methode für sichere Online-Reinforcement-Learning in Constrained Markov Decision Processes (CMDPs) nachweislich sublineare starke Reue, eine nahezu konstante starke Verletzung von Sicherheitsbedingungen und eine nicht-asymptotische Konvergenz der letzten Iteration durch den Einsatz von zeitlich variierenden Sicherheitsmargen und Regularisierung erreicht.

Qian Zuo, Zhiyong Wang, Fengxiang He2026-03-04🤖 cs.LG

Function-Space Decoupled Diffusion for Forward and Inverse Modeling in Carbon Capture and Storage

Die Studie stellt Fun-DDPS vor, einen generativen Rahmen, der Diffusionsmodelle im Funktionsraum mit differentierbaren neuronalen Operatoren kombiniert, um sowohl bei extrem spärlichen Daten präzise Vorhersagen für die Kohlenstoffspeicherung zu treffen als auch physikalisch konsistente inverse Lösungen mit höherer Effizienz als herkömmliche Methoden zu liefern.

Xin Ju, Jiachen Yao, Anima Anandkumar + 2 more2026-03-04🤖 cs.LG

A Boundary Integral-based Neural Operator for Mesh Deformation

Diese Arbeit stellt einen effizienten, auf Randintegralen und neuronalen Operatoren basierenden Ansatz (BINO) vor, der die Gitterverformung als lineares Elastizitätsproblem formuliert und durch die mathematische Entkopplung physikalischer Integration von geometrischen Darstellungen hohe Genauigkeit sowie Recheneffizienz für parametrische Gittergenerierung und Formoptimierung gewährleistet.

Zhengyu Wu, Jun Liu, Wei Wang2026-03-04🤖 cs.LG

Beyond State-Wise Mirror Descent: Offline Policy Optimization with Parameteric Policies

Diese Arbeit überwindet die Beschränkungen bestehender offline-Reinforcement-Learning-Algorithmen für große oder kontinuierliche Aktionsräume, indem sie theoretische Garantien für parametrisierte Policies durch eine Verbindung von Mirror Descent und Natural Policy Gradient liefert, was zudem eine überraschende Vereinheitlichung von offline RL und Imitationslernen ermöglicht.

Xiang Li, Yuheng Zhang, Nan Jiang2026-03-04🤖 cs.AI