CroSTAta: Cross-State Transition Attention Transformer for Robotic Manipulation
Die Arbeit stellt CroSTAta vor, einen Transformer-Ansatz für die robotische Manipulation, der durch eine neuartige State-Transition-Attention-Mechanik und temporale Maskierung die Robustheit gegenüber Abweichungen von Demonstrationsdaten signifikant verbessert und dabei bestehende Methoden wie TCN, LSTM und herkömmliche Cross-Attention übertrifft.