Each language version is independently generated for its own context, not a direct translation.
Immagina di avere un gruppo di amici molto intelligenti, tutti laureati in materie diverse, e di chiedere loro la stessa domanda difficile: "Qual è la capitale del Perù?". Se chiedi a uno solo, potrebbe sbagliare. Ma se chiedi a tutti e prendi la risposta più frequente (la "votazione"), la logica dice che la risposta giusta uscirà quasi sempre. Questo è il principio della "Saggezza delle Folle": se tutti pensano in modo indipendente, gli errori si annullano a vicenda e la verità emerge.
Un gruppo di ricercatori ha voluto vedere se questo trucco funzionasse anche con le Intelligenze Artificiali (LLM), chiedendo loro di rispondere a domande su fatti, logica o previsioni future, senza avere un "controllore" esterno che dica se la risposta è giusta o sbagliata (come un correttore automatico per la matematica).
Ecco cosa hanno scoperto, spiegato in modo semplice:
1. Il problema: Non sono amici diversi, sono "cugini"
Il segreto della Saggezza delle Folle umana è che noi abbiamo esperienze diverse. Io ho letto un libro, tu ne hai visto un altro, lui ha viaggiato. I nostri errori sono casuali e diversi.
Le Intelligenze Artificiali, invece, sono come fratelli gemelli cresciuti nella stessa casa. Sono state addestrate sugli stessi libri, gli stessi siti web e gli stessi dati. Se imparano un errore (una "bugia" o un malinteso), lo imparano tutte insieme.
- L'analogia: Immagina di chiedere a 100 persone che hanno letto esattamente lo stesso libro di fantasia, scritto da un autore che ha sbagliato un nome di un personaggio, di dire il nome corretto. Non otterrai la verità; otterrai 100 persone che ripetono lo stesso errore con sicurezza.
2. Il test: Chiedere cose che nessuno sa
Per provare che non è solo un problema di "conoscenza condivisa", i ricercatori hanno fatto un esperimento pazzesco. Hanno dato alle AI delle stringhe di caratteri casuali (tipo gP%!mdq4k'q=T/rp) e hanno chiesto: "Scegli tra A, B, C o D".
Non c'era nessuna risposta giusta! Era un gioco di fortuna.
Eppure, le diverse AI hanno iniziato a scegliere le stesse lettere (A o B) più spesso di quanto ci si aspetterebbe per caso.
- Cosa significa? Le AI non stanno solo condividendo fatti; hanno una "struttura mentale" (bias induttivi) identica. Quando non sanno la risposta, tendono a indovinare nello stesso modo.
3. La trappola della "Fiducia"
Le AI spesso dicono: "Sono sicuro al 99% che la risposta sia X". Pensavamo che se un'AI era molto sicura, avesse ragione.
Il paper scopre che la sicurezza non significa verità. Significa solo che l'AI è sicura che tutte le altre AI diranno la stessa cosa.
- L'analogia: Immagina un'aula scolastica dove tutti gli studenti hanno copiato la stessa risposta sbagliata dal quaderno del compagno. Se il professore chiede: "Chi è sicuro della sua risposta?", tutti alzeranno la mano con il 100% di sicurezza. Ma la risposta è comunque sbagliata. L'AI è brava a prevedere cosa dirà la "folla", ma non a trovare la verità.
4. Il risultato finale: Più campioni, più errori
I ricercatori hanno provato a far rispondere le AI 25 volte più del solito, sperando che la "votazione" correggesse gli errori.
- Risultato: Niente. La precisione non è migliorata. Anzi, a volte è peggiorata.
- Perché? Perché invece di cancellare gli errori, la votazione ha solo amplificato l'errore comune. Se tutte le AI pensano che la capitale del Perù sia "Lima" (giusto) ma su una domanda difficile pensano tutte che sia "Bogotà" (sbagliato), la votazione dirà con grande sicurezza che la risposta è "Bogotà".
In sintesi: La lezione per il futuro
Il paper ci dice una cosa molto importante per il futuro dell'IA:
Non puoi risolvere un problema di "verità" chiedendo semplicemente più volte la stessa cosa.
Se vuoi che l'IA sia corretta su argomenti dove non c'è un controllo automatico (come la medicina, la legge o le notizie):
- Non basta farle ragionare di più (più "calcolo").
- Non basta farle votare tra loro.
- Devi darle strumenti esterni (come cercare su Google, usare calcolatrici, o avere un umano che controlla).
La morale della favola:
Chiedere a un gruppo di AI di votare per trovare la verità è come chiedere a un coro di cantare la nota giusta: se tutti hanno lo stesso spartito sbagliato, il coro sarà bellissimo, armonioso e sicuro di sé, ma stonerà tutti insieme. Per trovare la verità, serve qualcuno che abbia uno spartito diverso o un orecchio esterno che dica: "Ehi, quella nota è stonata!".