CroSTAta: Cross-State Transition Attention Transformer for Robotic Manipulation

Die Arbeit stellt CroSTAta vor, einen Transformer-Ansatz für die robotische Manipulation, der durch eine neuartige State-Transition-Attention-Mechanik und temporale Maskierung die Robustheit gegenüber Abweichungen von Demonstrationsdaten signifikant verbessert und dabei bestehende Methoden wie TCN, LSTM und herkömmliche Cross-Attention übertrifft.

Giovanni Minelli, Giulio Turrisi, Victor Barasuol, Claudio Semini2026-03-10🤖 cs.LG

Double projection for reconstructing dynamical systems: between stochastic and deterministic regimes

Die vorgestellte Arbeit stellt eine neue Methode namens „Double Projection" innerhalb der Familie der dynamischen Variational Autoencoder vor, die aus Beobachtungsdaten sowohl Systemzustandsverläufe als auch Rauschzeitreihen schätzt, um stochastische Modelle dynamischer Systeme mit niedrigdimensionalen Zustandsräumen für die Mehrschritt-Prognose zu lernen.

Viktor Sip, Martin Breyton, Spase Petkoski, Viktor Jirsa2026-03-10🤖 cs.LG

The Role of Feature Interactions in Graph-based Tabular Deep Learning

Die Studie zeigt, dass aktuelle graphbasierte Deep-Learning-Methoden für Tabellendaten zwar auf der Modellierung von Feature-Interaktionen basieren, deren zugrundeliegende Graphstrukturen jedoch kaum korrekt rekonstruieren, was die Notwendigkeit unterstreicht, die Strukturmodellierung zu priorisieren, um die Vorhersagegenauigkeit zu verbessern.

Elias Dubbeldam, Reza Mohammadi, Marit Schoonhoven, S. Ilker Birbil2026-03-10🤖 cs.LG

Pretraining in Actor-Critic Reinforcement Learning for Robot Locomotion

Diese Arbeit stellt ein Pretraining-Fine-Tuning-Paradigma für das Reinforcement Learning bei der Robotergangart vor, bei dem ein vorab trainiertes propriozeptives inverses Dynamikmodell (PIDM) zur Initialisierung von Actor-Critic-Netzwerken genutzt wird, um die Probeneffizienz und Aufgabenleistung im Vergleich zur zufälligen Initialisierung signifikant zu verbessern.

Jiale Fan, Andrei Cramariuc, Tifanny Portela, Marco Hutter2026-03-10🤖 cs.LG

Reinforcing Numerical Reasoning in LLMs for Tabular Prediction via Structural Priors

Die vorgestellte Arbeit führt Permutation Relative Policy Optimization (PRPO) ein, eine Reinforcement-Learning-Methode, die strukturelle Priors nutzt, um die numerische Schlussfolgerung von Large Language Models für Tabellenvorhersagen zu stärken und dabei selbst in Zero-Shot-Szenarien die Leistung deutlich größerer Modelle zu übertreffen.

Pengxiang Cai, Zihao Gao, Wanchen Lian, Jintai Chen2026-03-10🤖 cs.LG

Balancing Interpretability and Performance in Motor Imagery EEG Classification: A Comparative Study of ANFIS-FBCSP-PSO and EEGNet

Diese Studie vergleicht die interpretierbare ANFIS-FBCSP-PSO-Methode mit dem Deep-Learning-Modell EEGNet zur Motor-Imagery-EEG-Klassifizierung und zeigt, dass das Fuzzy-Modell bei innerhalb-subjektiven Tests überlegen ist, während EEGNet eine bessere Generalisierung über verschiedene Probanden hinweg bietet, was eine gezielte Auswahl des Systems je nach Anforderung an Interpretierbarkeit oder Robustheit ermöglicht.

Farjana Aktar, Mohd Ruhul Ameen, Akif Islam, Md Ekramul Hamid2026-03-10🤖 cs.LG