STAIRS-Former: Spatio-Temporal Attention with Interleaved Recursive Structure Transformer for Offline Multi-task Multi-agent Reinforcement Learning
Het artikel introduceert STAIRS-Former, een transformer-architectuur met ruimtelijke en temporele hiërarchieën die de prestaties van offline multi-agent versterkt leren op multi-task datasets aanzienlijk verbetert door effectieve inter-agent coördinatie en langere tijdsafhankelijkheden te modelleren.