SASG-DA: Sparse-Aware Semantic-Guided Diffusion Augmentation For Myoelectric Gesture Recognition

Die vorgestellte Arbeit stellt SASG-DA vor, eine neuartige, auf Diffusionsmodellen basierende Daten-Augmentationsmethode für die myoelektrische Gestenerkennung, die durch semantische Leitlinien und eine spärlichkeitsbewusste Stichprobenziehung sowohl die Glaubwürdigkeit als auch die gezielte Vielfalt synthetischer sEMG-Daten sicherstellt, um Überanpassung zu mindern und die Generalisierungsfähigkeit zu verbessern.

Chen Liu, Can Han, Weishi Xu + 2 more2026-03-06💻 cs

CCSD: Cross-Modal Compositional Self-Distillation for Robust Brain Tumor Segmentation with Missing Modalities

Die Autoren stellen das CCSD-Framework vor, ein neuartiges Cross-Modal Compositional Self-Distillation-Verfahren mit einer geteilten-spezifischen Encoder-Decoder-Architektur und zwei Selbst-Distillation-Strategien, das die Segmentierung von Hirntumoren in Multi-Modal-MRT-Daten auch bei fehlenden Modalitäten robust und präzise ermöglicht.

Dongqing Xie, Yonghuang Wu, Zisheng Ai + 4 more2026-03-06💻 cs

Revisiting Multimodal KV Cache Compression: A Frequency-Domain-Guided Outlier-KV-Aware Approach

Die Arbeit stellt FlashCache vor, einen frequenzdomänengesteuerten Ansatz zur Komprimierung des Multimodal-KV-Caches, der durch die Identifizierung und Erhaltung von Ausreißer-KV-Paaren sowie eine dynamische Budgetzuweisung die Inferenzgeschwindigkeit und Speichereffizienz von Multimodal Large Language Models signifikant verbessert, ohne die Leistung zu beeinträchtigen.

Yaoxin Yang, Peng Ye, Xudong Tan + 4 more2026-03-06💻 cs

CycleChemist: A Dual-Pronged Machine Learning Framework for Organic Photovoltaic Discovery

Die Studie stellt CycleChemist vor, ein duales maschinelles Lernframework, das auf dem größten OPV-Datensatz (OPV2D) basiert und durch die Kombination von Vorhersagemodellen für die Leistungsfähigkeit mit einem generativen Transformer-Ansatz die datengetriebene Entdeckung hochleistungsfähiger organischer Photovoltaikmaterialien ermöglicht.

Hou Hei Lam, Jiangjie Qiu, Xiuyuan Hu + 5 more2026-03-06🔬 cond-mat.mtrl-sci

Steering Awareness: Models Can Be Trained to Detect Activation Steering

Die Studie zeigt, dass Sprachmodelle durch Feinabstimmung lernen können, Eingriffe durch Aktivitätssteuerung zu erkennen und die eingefügten Konzepte zu identifizieren, was die Annahme widerlegt, dass solche Manipulationen für das Modell unsichtbar bleiben, und gleichzeitig die langfristige Zuverlässigkeit von steuerungsbasierten Sicherheitsbewertungen infrage stellt.

Joshua Fonseca Rivera, David Demitri Africa2026-03-06💻 cs

Deep FlexQP: Accelerated Nonlinear Programming via Deep Unfolding

Die Autoren stellen Deep FlexQP vor, einen durch Deep Unfolding beschleunigten, immer zulässigen QP-Löser mit 1\ell_1-Elastizität, der nicht nur konvexe Optimierungsprobleme effizient löst, sondern auch bei Infeasibilität robuste Lösungen bietet und in der sequentiellen quadratischen Programmierung (SQP) sowie bei Sicherheitsfiltern signifikante Geschwindigkeits- und Erfolgssteigerungen gegenüber bestehenden Methoden erzielt.

Alex Oshin, Rahul Vodeb Ghosh, Augustinos D. Saravanos + 1 more2026-03-06🔢 math

Guided Flow Policy: Learning from High-Value Actions in Offline Reinforcement Learning

Die Arbeit stellt die „Guided Flow Policy" (GFP) vor, eine Offline-Reinforcement-Learning-Methode, die durch die Kopplung eines mehrstufigen Flow-Matching-Policies mit einem destillierten Ein-Schritt-Aktor und einer gewichteten Behavior-Cloning-Strategie erfolgreich hochwertige Aktionen aus dem Datensatz lernt und dabei in 144 verschiedenen Aufgaben State-of-the-Art-Ergebnisse erzielt.

Franki Nguimatsia Tiofack, Théotime Le Hellard, Fabian Schramm + 2 more2026-03-06💻 cs

Bootstrapped Mixed Rewards for RL Post-Training: Injecting Canonical Action Order

Die Studie zeigt, dass das Mischen einer skalaren Belohnung für die Einhaltung einer kanonischen Lösungsreihenfolge mit der eigentlichen Aufgabenbelohnung beim Reinforcement-Learning-Post-Training von Transformern auf Zebra-Rätseln die Leistung verbessert, indem es das Modell zu kanonischen Lösungspfaden lenkt, ohne die Architektur oder die überwachungsdaten zu ändern.

Prakhar Gupta, Vaibhav Gupta2026-03-06💻 cs

ClinNoteAgents: An LLM Multi-Agent System for Predicting and Interpreting Heart Failure 30-Day Readmission from Clinical Notes

Die Studie stellt ClinNoteAgents vor, ein auf großen Sprachmodellen basierendes Multi-Agenten-System, das unstrukturierte klinische Notizen in strukturierte Risikofaktoren und interpretierbare Zusammenfassungen umwandelt, um die Vorhersage von 30-Tage-Wiederaufnahmen bei Herzinsuffizienz in datenlimitierten Gesundheitssystemen zu verbessern.

Rongjia Zhou, Chengzhuo Li, Carl Yang + 1 more2026-03-06💻 cs

Achieving Olympia-Level Geometry Large Language Model Agent via Complexity Boosting Reinforcement Learning

Die Arbeit stellt InternGeometry vor, einen auf einem 32-Milliarden-Parameter-LLM basierenden Agenten, der durch einen iterativen Verifikationszyklus mit einem symbolischen Motor und eine neue Complexity-Boosting-Reinforcement-Learning-Methode (CBRL) 44 von 50 IMO-Geometrieaufgaben löst und dabei mit nur 13.000 Trainingsbeispielen die Leistung von AlphaGeometry 2 bei einem Bruchteil des Datenbedarfs übertrifft.

Haiteng Zhao, Junhao Shen, Yiming Zhang + 7 more2026-03-06💻 cs

ReFusion: A Diffusion Large Language Model with Parallel Autoregressive Decoding

Das Paper stellt ReFusion vor, ein neuartiges Masked-Diffusion-Modell, das durch die Integration von Sequenzreorganisation in den kausalen Aufmerksamkeitsrahmen paralleles Slot-Level-Decoding ermöglicht, wodurch es sowohl die Ineffizienz von KV-Caching als auch die Lernkomplexität überwindet und gleichzeitig die Leistung früherer Diffusionsmodelle deutlich übertrifft und sich der Geschwindigkeit von autoregressiven Modellen annähert.

Jia-Nan Li, Jian Guan, Wei Wu + 1 more2026-03-06💻 cs

HydroGEM: A Self Supervised Zero Shot Hybrid TCN Transformer Foundation Model for Continental Scale Streamflow Quality Control

HydroGEM ist ein selbstüberwachtes, zero-shot hybrides TCN-Transformer-Grundmodell, das durch Vorabtraining auf Millionen sauberer USGS-Daten und Feinabstimmung mit synthetischen Anomalien eine skalierbare, kontinentale Qualitätskontrolle für Flussabflüsse ermöglicht und dabei sowohl die Erkennung als auch die Rekonstruktion von Messfehlern signifikant verbessert.

Ijaz Ul Haq, Byung Suk Lee, Julia N. Perdrial + 1 more2026-03-06💻 cs