Amnesia: Adversarial Semantic Layer Specific Activation Steering in Large Language Models
El artículo presenta "Amnesia", un ataque adversarial ligero que manipula las activaciones internas de los modelos de lenguaje grandes (LLM) de peso abierto para eludir sus mecanismos de seguridad y generar contenido dañino sin necesidad de entrenamiento adicional.