Revolutionizing Mixed Precision Quantization: Towards Training-free Automatic Proxy Discovery via Large Language Models
Este artigo apresenta o TAP, um novo framework baseado em Grandes Modelos de Linguagem (LLMs) e estratégias evolutivas que descobre automaticamente e sem treinamento proxies superiores para quantização de precisão mista, eliminando a dependência de otimização diferenciada custosa ou de conhecimento manual de especialistas.