Shadow in the Cache: Unveiling and Mitigating Privacy Risks of KV-cache in LLM Inference
Este artigo revela que o cache KV em modelos de linguagem grandes (LLMs) expõe dados sensíveis a ataques de reconstrução e propõe o KV-Cloak, um mecanismo de defesa leve e reversível que protege a privacidade sem comprometer a precisão ou o desempenho do modelo.