Patterns of genAI bias in guiding prospective undergraduate students: a study of UK neuroscience programmes

Questo studio rivela che i chatbot di intelligenza artificiale generativa utilizzati per orientare gli studenti universitari in Regno Unito mostrano bias sistematici che, privilegiando candidati con voti più alti e provenienza scolastica privata, rafforzano le disuguaglianze educative e socioeconomiche attraverso raccomandazioni istituzionali distorte e un linguaggio di genere codificato.

Potter, H. G.

Pubblicato 2026-03-24
📖 5 min di lettura🧠 Approfondimento
⚕️

Questa è una spiegazione generata dall'IA di un preprint non sottoposto a revisione paritaria. Non è un consiglio medico. Non prendere decisioni sulla salute basandoti su questo contenuto. Leggi il disclaimer completo

Each language version is independently generated for its own context, not a direct translation.

🎓 L'IA come "Consulente Scolastico" (ma con un pregiudizio nascosto)

Immagina di dover scegliere l'università giusta per studiare neuroscienze. Invece di consultare guide costose o parlare con decine di professori, chiedi a un "mago digitale" (l'Intelligenza Artificiale generativa, come ChatGPT o Gemini): "Ehi, dove dovrei andare all'università?".

Questo studio, condotto da Harry Potter (sì, lo stesso cognome, ma non il mago! 🧙‍♂️), ha deciso di mettere alla prova questi "maghi digitali". Hanno creato 216 scenari diversi (come se fossero 216 studenti diversi) con caratteristiche diverse:

  • Alcuni con voti altissimi, altri con voti medi.
  • Alcuni che amano la ricerca scientifica, altri che preferiscono un ambiente accogliente.
  • Alcuni maschi, alcune femmine.
  • Alcuni venuti da scuole private, altri da scuole statali.

Hanno poi chiesto a tre diversi "maghi" (ChatGPT, Copilot e Gemini) di consigliare 5 università per ciascuno di questi 216 studenti. In totale, hanno analizzato 3.240 consigli diversi.

Ecco cosa hanno scoperto, usando delle metafore per renderlo chiaro:

1. L'IA non è neutrale: è come un "Sartore Preconfezionato" 🧵

L'IA non si comporta come un amico che ti ascolta davvero. Si comporta più come un sarto che, appena vede il tuo "tipo" (i tuoi voti e la tua storia), ti confeziona un abito che pensa sia adatto a te, basandosi su stereotipi nascosti nel suo cervello digitale.

  • Se hai voti alti e ti piace la ricerca: L'IA ti parla con un linguaggio "maschile" e aggressivo (parole come leader, competitivo, eccellente). Ti consiglia le università più prestigiose, quelle con i requisiti d'ingresso più alti e la ricerca più forte. È come se l'IA ti dicesse: "Sei un guerriero, vai a combattere nelle arene più difficili!".
  • Se hai voti più bassi o ti interessa l'esperienza studentesca: L'IA usa un linguaggio più "femminile" e accogliente (parole come supporto, collaborazione, sentirsi bene). Ti consiglia università con un'atmosfera più amichevole e soddisfazione studentesca più alta, ma spesso con requisiti d'ingresso più bassi. È come se l'IA ti dicesse: "Tranquillo, qui ti accoglieremo a braccia aperte".

Il problema? Anche se tu fossi una ragazza con voti altissimi e ambizioni di ricerca, se l'IA percepisce il tuo profilo come "da ricerca", ti parlerà comunque con quel linguaggio "maschile" e duro. Il genere reale dello studente conta meno di quello che l'IA pensa che tu voglia.

2. La "Bussola" è distorta 🧭

L'IA non solo cambia il tono di voce, ma cambia anche la destinazione.

  • Gli studenti con voti alti o che vengono da scuole private vengono spinti verso le università "Elite" (quelle famose e costose).
  • Gli studenti con voti più bassi o da scuole statali vengono indirizzati verso università meno prestigiose, con l'idea che "tanto per loro è meglio così".

È come se avessi due bus: uno veloce e costoso per chi ha i soldi, e uno lento e economico per chi non ce li ha. L'IA ti dice quale bus prendere, ma in realtà sta rafforzando le disuguaglianze sociali invece di aiutarti a scegliere la strada migliore per te.

3. Il "Segreto" delle parole 🗣️

Lo studio ha scoperto un legame curioso:

  • Quando l'IA usa parole maschili (es. "eccellenza", "leadership"), quasi sempre consiglia università con ricerca potente ma studenti meno felici (forse perché sono molto competitive).
  • Quando usa parole femminili (es. "supporto", "community"), consiglia università dove gli studenti sono più felici, ma con meno prestigio nella ricerca.

È come se l'IA pensasse: "Se vuoi la gloria, devi essere duro e solitario; se vuoi la felicità, devi essere gentile e accogliente". Ma nella realtà, un'università può essere sia eccellente che felice! L'IA, però, sembra non saperlo.

4. Perché è pericoloso? ⚠️

Immagina di essere un giovane studente che non conosce bene il sistema universitario. Ti fidi ciecamente di questo "consulente digitale".

  • Se l'IA ti dice che "non sei abbastanza bravo" per quella scuola top, potresti non provarci nemmeno.
  • Se l'IA ti spinge verso una scuola "più facile" solo perché hai voti medi, potresti perdere l'opportunità di crescere.

In pratica, l'IA rischia di creare una profezia che si autoavvera: dice a certi studenti che appartengono a certi posti, e loro finiscono lì, rafforzando le disuguaglianze che esistevano già prima.

🏁 La Conclusione in Pillole

Questo studio ci dice che l'Intelligenza Artificiale, sebbene utile, non è un oracolo imparziale. È uno specchio che riflette i pregiudizi del mondo in cui è stata addestrata.

  • Cosa fare? Dobbiamo essere consapevoli che quando chiediamo a un'IA un consiglio, stiamo ricevendo un'opinione filtrata da stereotipi su chi "dovrebbe" andare dove.
  • La soluzione? Non smettere di usare l'IA, ma usarla con occhio critico. Chiedile sempre: "Perché mi consigli questo?" e controlla sempre le informazioni su altre fonti. E soprattutto, le università e i governi devono creare regole per assicurarsi che questi "consiglieri digitali" siano giusti per tutti, indipendentemente dai voti o dal background familiare.

In sintesi: l'IA è un ottimo assistente, ma finché non impara a non giudicare le persone prima di conoscerle, dobbiamo essere noi a tenere il volante della nostra vita! 🚗💨

Ricevi articoli come questo nella tua casella di posta

Digest giornalieri o settimanali personalizzati in base ai tuoi interessi. Riassunti Gist o tecnici, nella tua lingua.

Prova Digest →