DistillGuard: Evaluating Defenses Against LLM Knowledge Distillation
Die Studie „DistillGuard" zeigt, dass die meisten bestehenden Output-Level-Verteidigungsmechanismen gegen Wissensdistillation durch proprietäre LLM-APIs überraschend ineffektiv sind und nur die Entfernung von Chain-of-Thought-Antworten die mathematische Reasoning-Fähigkeit des gestohlenen Wissens signifikant beeinträchtigt.