DARC: Disagreement-Aware Alignment via Risk-Constrained Decoding
Die Arbeit stellt DARC vor, eine retraining-freie Inferenzmethode, die durch risikobewusste, distributionell robuste Decodierung die Abstimmung von Sprachmodellen auf heterogene menschliche Präferenzen verbessert, indem sie Diskrepanzen und Tail-Risiken reduziert, ohne die durchschnittliche Qualität zu beeinträchtigen.