COMPASS: The explainable agentic framework for Sovereignty, Sustainability, Compliance, and Ethics

Il paper presenta COMPASS, un nuovo framework agenziale multi-modulare che integra sovranità digitale, sostenibilità ambientale, conformità normativa ed etica nei sistemi autonomi basati su LLM, utilizzando agenti specializzati potenziati da RAG e un meccanismo di valutazione "LLM-as-a-judge" per garantire decisioni allineate ai valori, spiegabili e tracciabili.

Jean-Sébastien, Dessureault, Alain-Thierry, Iliho Manzi, Soukaina, Alaoui Ismaili, Khadim, Lo, Mireille, Lalancette, Éric, Bélanger

Pubblicato 2026-03-13
📖 4 min di lettura☕ Lettura da pausa caffè

Each language version is independently generated for its own context, not a direct translation.

Immagina di voler costruire un robot molto intelligente (un "agente AI") capace di fare compiti complessi per noi, come gestire le finanze di un'azienda o rispondere alle domande dei clienti. Il problema è: se questo robot è troppo libero, potrebbe fare cose che violano le leggi, sprecano troppa energia, rubano i dati o sono semplicemente scorretti.

Il paper introduce COMPASS non come un semplice robot, ma come un sistema di navigazione e controllo per questi agenti. Ecco come funziona, usando delle metafore quotidiane.

1. Il Problema: Il Robot Senza Bussola

Attualmente, molti robot AI sono come automobili sportive senza freni e senza mappa. Sono velocissimi e fanno tutto, ma potrebbero:

  • Guidare in un paese dove non hanno il permesso (mancanza di Sovranità Digitale).
  • Consumare benzina a palate, inquinando l'ambiente (Sostenibilità Ambientale).
  • Ignorare il codice della strada locale (Conformità Legale).
  • Comportarsi in modo scortese o ingiusto (Etica).

Spesso, queste regole si scontrano. Ad esempio, la legge di un paese potrebbe richiedere che i dati rimangano lì (Sovranità), ma l'unico server locale è vecchio e consuma molta energia (Sostenibilità). Come fa il robot a decidere?

2. La Soluzione: COMPASS (La Bussola Magica)

COMPASS è un nuovo sistema che agisce come un controllore di volo in tempo reale per questi robot. Non aspetta che il robot finisca il lavoro per dirgli "bravo" o "brutto" (come fanno i controlli a terra dopo il volo). Invece, interviene mentre il robot sta pensando.

Il sistema è composto da un Capo (l'Orchestratore) e 4 Esperti Specializzati (i Sub-agent), ognuno con un compito preciso:

  • L'Esperto di Sovranità (Il Custode dei Confini): Controlla che i dati non escano dal paese e che la tecnologia usata sia locale o sicura. È come un doganiere che controlla i passaporti.
  • L'Esperto di Sostenibilità (Il Guardiano dell'Energia): Calcola quanta "benzina" (energia elettrica) sta consumando il robot. Se il compito è troppo pesante, suggerisce di farlo in modo più leggero.
  • L'Esperto di Leggi (L'Avvocato): Legge le regole del paese in cui il robot sta operando (es. le leggi canadesi o europee) e assicura che nessuno le infranga.
  • L'Esperto di Etica (Il Giudice Morale): Si assicura che le azioni siano giuste, eque e rispettose delle persone.

3. Come Funziona la Magia: Il "Libro delle Regole" (RAG)

C'è un trucco fondamentale. Questi esperti non si basano solo sulla loro "memoria" (che potrebbe essere vecchia o sbagliata, come un robot che allucina cose).
Ogni esperto ha accesso a un enorme archivio digitale aggiornato (chiamato RAG).

  • Metafora: Immagina che l'Esperto di Leggi non debba ricordare a memoria tutte le leggi, ma possa consultare istantaneamente il codice civile aggiornato di oggi.
  • Quando il robot vuole fare qualcosa, gli esperti consultano questo archivio, leggono i documenti veri e dicono: "Ok, questa azione va bene perché è scritta a pagina 45 del documento X". Questo evita che il robot inventi regole che non esistono.

4. Il Giudice AI (LLM-as-a-Judge)

Come fa il sistema a decidere se un'azione è buona o cattiva? Usa un altro Intelligenza Artificiale che funge da Giudice.

  • Il Giudice legge la proposta del robot, controlla i pareri dei 4 esperti e assegna un punteggio (da 0 a 100) e una spiegazione chiara.
  • Esempio: "Ho dato un punteggio di 80/100. L'azione è etica, ma consuma troppa energia per il server locale. Ti consiglio di aspettare un'ora quando l'energia è più pulita."

5. Il Risultato: Un Robot Responsabile

Grazie a COMPASS, il robot finale non è più un "selvaggio". È un cittadino modello:

  • Rispetta le leggi del posto.
  • Non spreca energia.
  • Protegge i dati.
  • Agisce in modo etico.

Se c'è un conflitto (es. "Devo usare un server locale per la legge, ma consuma troppa energia"), il sistema COMPASS trova il compromesso migliore o avvisa l'utente, invece di ignorare il problema.

In Sintesi

Il paper COMPASS ci dice che non basta creare robot intelligenti; dobbiamo creare robot consapevoli.
È come passare da un'automobile guidata da un bambino che preme l'acceleratore a caso, a un'auto con un co-pilota esperto che controlla la mappa, il carburante, le leggi stradali e il comportamento, assicurandosi che il viaggio arrivi a destinazione in modo sicuro, legale e rispettoso dell'ambiente.

Il futuro: Gli autori dicono che ora hanno costruito la bussola e i sensori. Nel futuro, vorranno aggiungere la capacità di far girare l'auto da soli in modo sicuro, e far controllare tutto anche da esseri umani per essere sicuri al 100%.