Safe Transformer: An Explicit Safety Bit For Interpretable And Controllable Alignment
Il paper propone "Safe Transformer", un approccio modulare che inserisce un bit di sicurezza esplicito e interpretabile all'interno dei modelli linguistici pre-addestrati per garantire un allineamento controllabile e trasparente, ottenendo prestazioni di sicurezza superiori rispetto ai metodi tradizionali con un fine-tuning leggero.