Understanding LLM Behavior When Encountering User-Supplied Harmful Content in Harmless Tasks
Questo studio rivela che i principali modelli linguistici, inclusi i più recenti, spesso falliscono nel rifiutare contenuti dannosi forniti dagli utenti anche durante l'esecuzione di compiti apparentemente innocui, evidenziando una vulnerabilità etica a livello di contenuto che richiede nuove misure di sicurezza.