Malicious Or Not: Adding Repository Context to Agent Skill Classification

Questo studio presenta la più ampia analisi empirica della sicurezza dell'ecosistema delle competenze degli agenti AI, dimostrando che l'inclusione del contesto del repository riduce drasticamente i falsi positivi rispetto agli scanner attuali e rivela nuovi vettori di attacco, come il dirottamento di competenze ospitate su repository abbandonati.

Florian Holzbauer, David Schmidt, Gabriel Gegenhuber, Sebastian Schrittwieser, Johanna Ullrich

Pubblicato 2026-03-18
📖 4 min di lettura☕ Lettura da pausa caffè

Each language version is independently generated for its own context, not a direct translation.

Immagina il mondo degli Agenti AI (come Claude Code o OpenClaw) non come semplici chatbot, ma come robot domestici super-intelligenti. Questi robot possono fare cose complesse: scrivere codice, controllare le tue email, gestire i tuoi investimenti.

Ma c'è un problema: da soli, questi robot sono un po' limitati. Per diventare davvero utili, hanno bisogno di "Abilità" (o Skills), che sono come manopole, attrezzi o accessori che puoi agganciare al robot per insegnargli nuovi trucchi.

Il Grande Mercato degli Attrezzi

Oggi esistono dei negozi online (chiamati "Marketplace") dove chiunque può vendere o scaricare questi attrezzi. È un po' come l'App Store del tuo telefono, ma per robot.
Tuttavia, c'è un grosso rischio: chi garantisce che questi attrezzi non siano trappole?

Finora, alcuni studi e i sistemi di sicurezza automatici hanno detto: "Attenzione! Il 46% di questi attrezzi è pericoloso!". Era come se un ispettore sanitario dicesse che quasi metà dei ristoranti della città avvelena la gente. Questo ha creato un panico enorme.

Cosa hanno fatto gli autori?

Gli autori di questo studio (un gruppo di ricercatori austriaci) hanno detto: "Aspetta un attimo. Forse stiamo sbagliando tutto. Stiamo guardando solo l'etichetta del prodotto senza entrare nel negozio?".

Hanno raccolto 238.180 di questi "attrezzi" da tutto il web e hanno fatto un'analisi molto più approfondita. Ecco le loro scoperte, spiegate con delle metafore:

1. L'Ispezione "Superficiale" vs. L'Ispezione "Profonda"

  • Il vecchio metodo (Scanner automatici): Immagina di controllare un'auto solo guardando il cofano. Se vedi un motore strano o un cavo che pende, l'ispettore dice: "Pericolo! Questa auto è rubata o pericolosa!". Risultato: 46% delle auto sono state etichettate come pericolose.
  • Il nuovo metodo (Analisi con il contesto): Gli autori hanno detto: "Non fermiamoci al cofano. Entriamo nell'auto, controlliamo il libretto di manutenzione, chi è il proprietario e dove vive".
    • Hanno guardato non solo l'attrezzo, ma anche il negozio (il repository GitHub) da cui proviene.
    • Risultato: Quando hanno guardato il contesto, si sono resi conto che la maggior parte di quelle "auto pericolose" erano in realtà veicoli perfettamente funzionanti, solo con un'etichetta un po' strana.
    • La nuova statistica: Solo lo 0,52% degli attrezzi era davvero pericoloso. Il resto erano falsi allarmi.

2. Il Problema del "Negozio Abbandonato" (Hijacking)

Gli autori hanno scoperto un nuovo modo in cui i criminali possono ingannare i robot, che nessuno aveva notato prima.
Immagina che tu compri un attrezzo da un negozio online, ma quel negozio è in realtà un magazzino abbandonato su internet.

  • Il proprietario originale del magazzino ha smesso di curarlo e ha cambiato nome.
  • Un truffatore si è preso il nome del vecchio proprietario, ha riaperto il magazzino con lo stesso nome e ha messo dentro attrezzi falsi.
  • Il robot, fidandosi del nome del negozio, prende l'attrezzo "avvelenato".
  • Scoperta: Hanno trovato 121 attrezzi che puntavano a questi "magazzini abbandonati" e che potevano essere dirottati dai criminali. È come se qualcuno rubasse l'insegna di un vecchio bar per vendere caffè avvelenato.

3. Perché i vecchi controlli sbagliavano così tanto?

I vecchi sistemi di sicurezza erano come cane da guardia che abbaia a tutto ciò che si muove.

  • Se un attrezzo aveva un codice che sembrava strano (ma era legittimo), il cane abbaiava.
  • Se un attrezzo parlava di "password" (anche solo per mostrarle all'utente), il cane abbaiava.
  • Non capivano la differenza tra un ladro e un idraulico che sta riparando un tubo.
  • Gli autori hanno creato un nuovo "ispettore" (basato sull'Intelligenza Artificiale) che guarda il contesto: "Questo attrezzo è usato da uno sviluppatore serio con un progetto famoso? O è in un progetto creato ieri da un anonimo?".

In sintesi: Cosa dobbiamo imparare?

  1. Non fidarsi ciecamente degli allarmi: Se un sistema dice che il 40% delle cose è pericoloso, probabilmente il sistema è troppo sensibile e sta creando confusione.
  2. Guarda il contesto: Per capire se un "attrezzo" per l'AI è sicuro, non basta leggere la descrizione. Bisogna guardare chi lo ha fatto, da quanto tempo esiste e se il "negozio" che lo ospita è affidabile.
  3. Nuovi pericoli: C'è un nuovo rischio legato ai "negozi abbandonati" su internet che i criminali possono riutilizzare per rubare la fiducia degli utenti.

Il messaggio finale: Il mondo degli attrezzi per l'AI è molto più sicuro di quanto pensassimo, ma dobbiamo smettere di guardare solo l'etichetta e iniziare a guardare chi c'è dietro il banco.

Sommerso dagli articoli nel tuo campo?

Ricevi digest giornalieri degli articoli più recenti corrispondenti alle tue parole chiave di ricerca — con riassunti tecnici, nella tua lingua.

Prova Digest →