GRAD-Former: Gated Robust Attention-based Differential Transformer for Change Detection
Die Arbeit stellt GRAD-Former vor, ein neuartiges, effizientes Framework für die Veränderungserkennung in Fernerkundungsbildern, das durch einen adaptiven Encoder mit gating-basierten Mechanismen und differenzieller Aufmerksamkeit eine überlegene Genauigkeit bei gleichzeitig geringerem Parameterbedarf als bestehende State-of-the-Art-Modelle erreicht.