Rank-Factorized Implicit Neural Bias: Scaling Super-Resolution Transformer with FlashAttention
该论文提出了秩分解隐式神经偏置(RIB)以替代传统的相对位置偏置,从而在超分辨率 Transformer 中启用高效的 FlashAttention 并支持更大窗口与数据集的扩展,最终在显著提升重建质量(Urban100×2 达 35.63 dB PSNR)的同时,将训练和推理时间分别缩短了 2.1 倍和 2.9 倍。