Sparse Crosscoders for diffing MoEs and Dense models
Die Studie nutzt Crosscoders, um zu zeigen, dass Mixture-of-Experts-Modelle im Vergleich zu dichten Modellen weniger einzigartige Merkmale lernen und spezialisierte, fokussierte Repräsentationen entwickeln, während dichte Modelle breitere, allgemeineren Merkmale verwenden.