LGQ: Learning Discretization Geometry for Scalable and Stable Image Tokenization
El artículo presenta LGQ, un tokenizador de imágenes discreto que aprende la geometría de cuantización de forma end-to-end mediante asignaciones suaves controladas por temperatura y regularizadores de uso, logrando una optimización estable y una utilización equilibrada del código que supera a métodos existentes como FSQ y SimVQ en fidelidad y eficiencia.