CricBench: A Multilingual Benchmark for Evaluating LLMs in Cricket Analytics

Il paper presenta CricBench, il primo benchmark multilingue per valutare le capacità di generazione SQL degli LLM nell'analisi dei dati cricket, rivelando un significativo divario tra la validità sintattica e la correttezza semantica delle risposte dei modelli su quattro formati di gioco e in quattro lingue.

Parth Agarwal, Navya Kommuri, Trizal Garg, Prisha Singhal, Dhruv Shah, Vaibhav Devraj, Yash Sinha, Jagat Sesh Challa, Murari Mandal, Dhruv Kumar

Pubblicato 2026-04-14
📖 5 min di lettura🧠 Approfondimento

Each language version is independently generated for its own context, not a direct translation.

Immagina di avere un genio della lampada (un'intelligenza artificiale avanzata) che è bravissimo a rispondere a domande generiche. Se gli chiedi "Chi è il presidente degli USA?" o "Qual è la capitale della Francia?", risponde subito e perfettamente.

Ma cosa succede se gli chiedi: "Fammi un elenco dei giocatori di cricket che hanno segnato più punti nelle ultime 5 partite contro l'India, escludendo quelli che hanno preso una squalifica, e calcolami la loro media di corsa per ogni palla legale?"

Ecco, il paper CricBench racconta proprio la storia di quanto questi "geni" si trovino in difficoltà quando devono diventare esperti di cricket.

1. Il Problema: Il Genio che non capisce le Regole del Gioco

Gli autori del paper hanno creato un nuovo "esame" chiamato CricBench. È come un test di guida, ma invece di guidare un'auto normale, l'IA deve guidare un'auto da corsa su un circuito di cricket molto specifico.

Il cricket è uno sport complicatissimo, con regole diverse per diverse partite (Test, ODI, T20I, IPL) e milioni di dati statistici. Gli esperti umani sanno fare questi calcoli, ma le Intelligenze Artificiali (LLM) attuali, anche quelle più potenti, sembrano avere un "buco" nella loro conoscenza.

2. L'Esperimento: Solo la Mappa, Niente Istruzioni

Per vedere quanto sono davvero intelligenti, gli autori hanno fatto un trucco: hanno dato all'IA solo la mappa del database (la lista delle tabelle e delle colonne, come se fosse un indice di un libro) e una domanda in linguaggio naturale.

  • Niente trucchi: Non hanno dato all'IA esempi di risposte, né spiegazioni sulle regole del cricket.
  • Obiettivo: Vedere se l'IA riesce a tradurre la domanda umana in un comando informatico (SQL) corretto per estrarre i dati giusti.

Hanno fatto questo test in 4 lingue: Inglese, Hindi, Punjabi e Telugu. Perché? Perché il cricket è amatissimo in India e in tutto il mondo, e le persone fanno domande nella loro lingua madre, spesso mescolando parole inglesi (come "Strike Rate") con la loro lingua.

3. I Risultati: L'Illusione di Competenza

I risultati sono stati sorprendenti e un po' imbarazzanti per le IA più famose (come GPT-5 Mini, Claude, DeepSeek, ecc.):

  • L'IA è bravissima a "parlare" la lingua dei computer: Il 98-99% delle volte, l'IA scrive un comando che il computer accetta e non va in errore. Sembra tutto perfetto!
  • L'IA è terribile a "capire" il cricket: Quando si controlla se la risposta è vera e corretta, il successo crolla. In media, solo 1 su 10 (o meno) delle risposte è giusta.
    • L'analogia: È come se un cuoco ti preparasse una torta che sembra perfetta esternamente (ha la forma giusta, è colorata), ma quando la assaggi, è fatta di sabbia e non di farina. Ha seguito la ricetta visiva, ma non ha capito gli ingredienti veri.

4. Le Sorprese del Test

  • Nessun vincitore assoluto: Non esiste un'IA che vince in tutte le categorie. Alcune sono brave con il cricket "vecchio stile" (Test), altre con quello moderno (IPL), ma nessuna è un campione universale.
  • Il "Muro" delle domande difficili: Per le domande più complesse sul cricket ODI, tutte le IA hanno ottenuto lo 0%. Zero. Come se non avessero mai sentito parlare di cricket.
  • La lingua non è il problema: Le IA hanno fatto quasi lo stesso errore sia in Inglese che in Hindi o Punjabi. Il problema non è la lingua, ma la logica del cricket. Anche se capisci la domanda, non sai come calcolare la risposta.

5. Il Confronto con il Mondo Reale

Gli autori hanno confrontato i risultati di CricBench con un altro test famoso (BIRD) che usa domande generiche (tipo "trova i clienti che hanno comprato più di 100 euro").

  • Nelle domande generiche, le IA prendono il 60% di voti.
  • Nelle domande di cricket, crollano al 10-15%.
  • La morale: Essere bravi a fare ricerche generali non significa essere bravi a fare analisi sportive specializzate. È come dire che un ottimo pilota di F1 non è necessariamente bravo a pilotare un trattore, anche se entrambi hanno quattro ruote.

Conclusione: Cosa ci insegna?

Il paper ci dice che le Intelligenze Artificiali di oggi sono come studenti molto veloci che memorizzano tutto, ma non hanno ancora sviluppato il buon senso o la logica profonda necessaria per i settori specializzati.

Per farle diventare vere esperte di cricket (o di medicina, o di finanza), non basta farle studiare di più o renderle più grandi. Serve insegnar loro le regole specifiche del gioco e come applicarle, altrimenti continueranno a scrivere comandi perfetti che portano a risposte sbagliate.

In sintesi: CricBench è il "termometro" che ci dice che, anche se le IA sembrano geniali, quando si tratta di sport complessi come il cricket, sono ancora un po' dei principianti che hanno bisogno di un allenatore umano per non sbagliare il punteggio.

Ricevi articoli come questo nella tua casella di posta

Digest giornalieri o settimanali personalizzati in base ai tuoi interessi. Riassunti Gist o tecnici, nella tua lingua.

Prova Digest →