Param for Direct Weight Mixing: Post-Train Large Language Model at Zero Cost
Este artigo apresenta o método Param, uma técnica inovadora que transfere capacidades de pós-treinamento de um modelo para uma nova base atualizada simplesmente misturando seus pesos, permitindo a criação de modelos instruídos de alto desempenho sem custos computacionais adicionais.