Rank-Factorized Implicit Neural Bias: Scaling Super-Resolution Transformer with FlashAttention
Ce papier propose le Rank-factorized Implicit Neural Bias (RIB), une méthode qui remplace le biais de position relatif pour permettre l'utilisation de FlashAttention dans les Transformers de super-résolution, permettant ainsi d'augmenter considérablement la taille des fenêtres d'attention et d'améliorer les performances tout en réduisant les temps d'entraînement et d'inférence.