AILS-NTUA at SemEval-2026 Task 10: Agentic LLMs for Psycholinguistic Marker Extraction and Conspiracy Endorsement Detection

Questo articolo presenta una pipeline innovativa basata su LLM agentic per la SemEval-2026 Task 10, che utilizza un design decoupled con Dynamic Discriminative Chain-of-Thought e un'architettura "Anti-Echo Chamber" per estrarre marcatori psicolinguistici e rilevare l'adesione alle teorie del complotto, ottenendo significativi miglioramenti nelle prestazioni rispetto alla baseline.

Panagiotis Alexios Spanakis, Maria Lymperaiou, Giorgos Filandrianos, Athanasios Voulodimos, Giorgos Stamou

Pubblicato 2026-03-06
📖 4 min di lettura☕ Lettura da pausa caffè

Each language version is independently generated for its own context, not a direct translation.

🕵️‍♂️ Il Detectivo Digitale: Come AILS-NTUA ha sconfitto le Teorie del Complotto

Immagina di dover trovare un ago in un pagliaio, ma l'ago è una frase specifica che rivela un complotto, e il pagliaio è un milione di post su Reddit. Inoltre, molti pagliacci nel pagliaio fingono di essere aghi, o parlano di aghi solo per prenderli in giro.

Il team AILS-NTUA dell'Università Politecnica di Atene ha partecipato a una gara internazionale (SemEval-2026) per risolvere questo problema. Invece di usare un semplice "robot" che legge e decide, hanno costruito un squadra di investigatori digitali (un sistema "agente") che lavora insieme come un tribunale.

Ecco come funziona la loro invenzione, spiegata con metafore semplici:

1. Il Problema: Due Sfide Diverse

Il compito aveva due parti:

  • Sfida 1 (Caccia all'Indizio): Trovare le frasi esatte nel testo che contengono i "segni" di un complotto (chi lo fa, cosa fa, chi ne soffre). È come cercare le parole chiave in una lettera segreta.
  • Sfida 2 (Giudizio Finale): Capire se l'autore del testo crede davvero al complotto o se sta solo raccontando una notizia (es. "Il giornale dice che...").

Il problema è che i modelli di intelligenza artificiale normali spesso si confondono: se leggono "Il governo ha nascosto la verità", pensano che chi scrive ci creda. Ma se leggono "Il giornale dice che il governo ha nascosto la verità", stanno solo riportando una notizia. I robot tendono a confondere i due casi.

2. La Soluzione: Un Tribunale Digitale

Invece di un solo robot, il team ha creato un processo a più stadi, simile a un'indagine giudiziaria.

Fase 1: L'Investigatore "DD-CoT" (Il Detectivo che Pensa)
Per trovare gli indizi (Sfida 1), hanno usato un metodo chiamato DD-CoT.

  • L'analogia: Immagina un detective che non si accontenta di dire "Questo è un indizio". Prima di segnare un pezzo di testo, deve scrivere su un foglio: "Perché questo è un indizio? E perché NON potrebbe essere qualcos'altro?".
  • Il trucco: Costringendo l'IA a pensare al contrario ("Perché non è la vittima ma l'agente?"), l'IA smette di fare errori stupidi e individua con precisione chirurgica le parole giuste, evitando di inventare frasi che non esistono nel testo.

Fase 2: La "Camera Anti-Eco" (Il Consiglio dei Giurati)
Per decidere se il testo è un complotto o una notizia (Sfida 2), hanno creato una stanza virtuale chiamata Anti-Echo Chamber.

  • Il problema: Di solito, gli IA fanno "eco" (ripetono ciò che sentono) e si convincono a vicenda che un complotto è reale.
  • La soluzione: Hanno messo a sedere 4 giurati virtuali con personalità opposte, che non possono parlarsi tra loro:
    1. L'Accusatore (Prosecutor): Cerca prove che qualcuno creda al complotto.
    2. Il Difensore (Defense): Cerca prove che sia solo una notizia, una satira o un dubbio ("Ma forse è solo una teoria...").
    3. Il Letteralista: Legge il testo parola per parola, ignorando i "vibes" o le emozioni.
    4. Il Profiler: Analizza lo stile e le emozioni (es. "Sta urlando? Usa parole da cospiratore?").
  • Il Giudice Calibrato: Alla fine, un Giudice ascolta tutti e quattro. Se c'è un dubbio, il Giudice tende a dire "Non è un complotto" (per sicurezza), evitando di accusare ingiustamente chi sta solo riportando notizie.

3. Il Risultato: Perché hanno vinto?

Il sistema ha funzionato benissimo perché ha separato i compiti:

  • Non ha mescolato la "caccia alle parole" con il "giudizio morale".
  • Ha usato un "tribunale" invece di un "oracolo" singolo.

I risultati in numeri:

  • Nella caccia agli indizi (Sfida 1), hanno raddoppiato la precisione rispetto ai metodi base.
  • Nel giudizio finale (Sfida 2), sono stati quasi il doppio più bravi a non confondere le notizie con le credenze.

4. La Metafora Finale

Immagina di dover distinguere tra un attore che recita una scena di un film e un criminale reale.

  • Un sistema semplice guarda la scena e dice: "È un crimine!" (perché l'attore urla e minaccia).
  • Il sistema AILS-NTUA è come un regista esperto che ha un comitato di esperti: uno guarda la sceneggiatura, uno controlla se l'attore sta recitando, uno verifica se c'è una telecamera nascosta. Solo quando tutti sono d'accordo che non c'è una telecamera e l'attore sta davvero agendo, allora si chiama la polizia.

In Sintesi

Questo paper ci insegna che per risolvere problemi complessi (come capire le teorie del complotto), non serve solo un'intelligenza artificiale più "forte", ma un'intelligenza artificiale più organizzata. Creando un flusso di lavoro dove diversi "agenti" si controllano a vicenda, si riducono gli errori e si ottiene un risultato molto più umano e affidabile.