Synthetic History: Evaluating Visual Representations of the Past in Diffusion Models

Questo lavoro introduce un benchmark per valutare la capacità dei modelli di diffusione testo-immagine di rappresentare accuratamente i contesti storici, rivelando attraverso un'analisi di 30.000 immagini sintetiche come questi modelli tendano a stereotipare le epoche passate con stili non dichiarati, introdurre anacronismi e fallire nella rappresentazione demografica plausibile.

Maria-Teresa De Rosa Palmini, Eva Cetinic

Pubblicato 2026-02-23
📖 5 min di lettura🧠 Approfondimento

Each language version is independently generated for its own context, not a direct translation.

Immagina di avere una macchina del tempo fotografica molto potente. Non è una macchina vera, ma un'intelligenza artificiale (chiamata "modello di diffusione") che può creare immagini partendo da una semplice descrizione scritta. Se le dici "disegna una persona che cucina nel 1700", lei dovrebbe creare un'immagine che sembri autentica per quell'epoca.

Il problema è: questa macchina del tempo sta mentendo? O sta solo raccontando una storia sbagliata basata su ciò che ha letto nei suoi libri di addestramento?

Questo paper, scritto da due ricercatrici dell'Università di Zurigo, si chiama "Synthetic History" (Storia Sintetica) e fa proprio questo: mette alla prova queste macchine del tempo per vedere se riescono a rappresentare il passato in modo onesto o se finiscono per creare un "falso storico".

Ecco come funziona la loro indagine, spiegata con parole semplici:

1. Il Grande Esperimento: La "Cassaforte" di 30.000 Immagini

Le ricercatrici hanno creato un enorme database chiamato HistVis. Immaginalo come una cassaforte piena di 30.000 foto false.
Hanno chiesto a tre delle migliori intelligenze artificiali attuali (SDXL, SD3 e FLUX) di disegnare la stessa attività umana (come "ascoltare musica", "coltivare la terra" o "giocare") in 10 periodi storici diversi (dal 1600 fino ai giorni nostri).
L'obiettivo era vedere se l'AI cambia davvero lo stile e i dettagli quando il tempo cambia, o se rimane bloccata sugli stessi stereotipi.

2. I Tre Problemi Principali Scoperti

L'analisi ha rivelato tre "bug" principali nel modo in cui l'AI vede il passato:

A. Il "Filtro Visivo" Rigido (Associazioni Stilistiche)

Immagina di chiedere a un pittore di disegnare una scena del 1700. Se lui ha solo visto quadri a olio e incisioni antiche, userà sempre quello stile, anche se gli chiedi di fare un disegno moderno.
L'AI fa lo stesso:

  • Se chiedi un'immagine del 1700, l'AI tende a farla sembrare un'incisione o un quadro a olio, anche se non lo hai chiesto.
  • Se chiedi un'immagine del 1950, tende a farla in bianco e nero, anche se in quel periodo la fotografia a colori esisteva già.
    È come se l'AI avesse un "filtro Instagram" automatico per ogni epoca storica, e non riesce a toglierlo.

B. Gli "Orrori Temporali" (Anacronismi)

Questo è il problema più divertente e pericoloso. Immagina di vedere un film ambientato nell'antica Roma dove un gladiatore tiene in mano uno smartphone o un aspirapolvere.
L'AI commette spesso questi errori:

  • Disegna persone del 1800 con cuffie per ascoltare musica.
  • Mostra un forno a microonde in una cucina del 1930.
  • Mette zaini moderni su persone che viaggiano nel 1700.
    L'AI è così abituata a vedere oggetti moderni associati a certe azioni (es. "ascoltare musica" = "cuffie") che dimentica che quegli oggetti non esistevano ancora. È come se la sua memoria fosse un pasticcio dove tutte le epoche si mescolano.

C. Le "Maschere" Sociali (Razza e Genere)

Qui l'AI si comporta come un attore che recita male un ruolo.

  • Genere: Se chiedi di disegnare qualcuno che "cucina" nel 1700, l'AI disegna quasi sempre un uomo, anche se storicamente la cucina domestica era spesso gestita da donne. Se chiedi di disegnare qualcuno che "lavora in fabbrica" nel 1900, disegna quasi sempre un uomo, ignorando le donne che lavoravano.
  • Razza: L'AI tende a disegnare quasi tutte le persone del passato come bianche, anche in epoche e luoghi dove la popolazione era molto mista. Sembra che l'AI abbia un "preambolo" mentale che dice: "Il passato è bianco", ignorando la diversità reale della storia umana.

3. Perché è Importante?

Perché queste immagini non sono solo "disegni carini".

  • Nell'educazione: Se un bambino usa l'AI per fare un compito di storia e vede un gladiatore con un iPhone, impara una storia sbagliata.
  • Nella memoria culturale: Se l'AI decide che il passato era sempre bianco e fatto solo di uomini, stiamo cancellando visivamente la presenza di donne e persone di colore nella storia. Stiamo riscrivendo la storia in modo sbagliato.

4. La Conclusione: Non è una Macchina del Tempo, è uno Specchio Distorto

Le ricercatrici concludono che queste intelligenze artificiali non sono archivisti storici. Sono come specchi che riflettono ciò che hanno visto online, ma in modo distorto.

  • Ripetono gli stereotipi (il passato è antico e bianco).
  • Mescolano i tempi (mettono oggetti moderni nel passato).
  • Non capiscono la vera diversità della storia umana.

In sintesi: Il paper ci avverte che se usiamo l'AI per creare immagini storiche, dobbiamo stare molto attenti. Non possiamo fidarci ciecamente di quello che vediamo, perché l'AI sta creando una "Storia Sintetica": una versione del passato che sembra reale, ma che è in realtà un collage di pregiudizi moderni e errori di memoria.

Il lavoro serve a creare un "righello" per misurare questi errori e sperare che in futuro le macchine del tempo siano più precise e meno bugiarde.

Ricevi articoli come questo nella tua casella di posta

Digest giornalieri o settimanali personalizzati in base ai tuoi interessi. Riassunti Gist o tecnici, nella tua lingua.

Prova Digest →