Safe Transformer: An Explicit Safety Bit For Interpretable And Controllable Alignment
O artigo propõe o "Safe Transformer", uma abordagem modular que insere um "bit de segurança" explícito e controlável entre as camadas de modelos de linguagem pré-treinados, permitindo que a decisão de segurança seja diretamente interpretável e manipulável sem a necessidade de um pré-treinamento do zero, enquanto mantém a capacidade de geração e alcança taxas de sucesso de ataque próximas de zero em benchmarks de teste de segurança.