Gender Bias in Generative AI-assisted Recruitment Processes

Questo studio valuta l'impatto del modello generativo GPT-5 nel reclutamento di laureati italiani under-35, rivelando che, sebbene le proposte occupazionali non mostrino differenze significative, il modello perpetua stereotipi di genere assegnando aggettivi emotivi ed empatici alle donne e tratti strategici e analitici agli uomini, sollevando così preoccupazioni etiche sull'uso di tali sistemi nei processi di selezione.

Martina Ullasci, Marco Rondina, Riccardo Coppola, Antonio Vetrò

Pubblicato 2026-03-13
📖 4 min di lettura☕ Lettura da pausa caffè

Each language version is independently generated for its own context, not a direct translation.

🤖 L'IA che "pensa" con gli stereotipi: Cosa succede quando un robot fa il selezionatore?

Immaginate di avere un consulente di carriera super intelligente, un robot che ha letto milioni di libri, articoli e CV. Questo robot, chiamato GenAI (Intelligenza Artificiale Generativa), è stato assunto dalle aziende per aiutare a scegliere i nuovi dipendenti. Sembra perfetto: veloce, non si stanca e non prende caffè.

Ma c'è un problema. Questo robot è stato "addestrato" leggendo tutto ciò che è stato scritto dall'umanità fino ad oggi. E purtroppo, la nostra storia è piena di pregiudizi. È come se questo robot avesse bevuto un "caffè avvelenato" fatto di vecchie idee su come dovrebbero comportarsi uomini e donne.

Gli autori di questo studio (ricercatori italiani del Politecnico di Torino) hanno deciso di fare un esperimento da detective per vedere se questo robot, quando deve suggerire un lavoro, tratta diversamente un uomo e una donna, anche se hanno le stesse identiche competenze.

🕵️‍♂️ L'Esperimento: Il "Gioco dei Gemelli"

I ricercatori hanno creato 24 profili fittizi di giovani laureati italiani (sotto i 35 anni).

  • 12 erano donne.
  • 12 erano uomini.
  • Tutti avevano lo stesso livello di istruzione, la stessa età e competenze simili.

Hanno poi chiesto al robot (in questo caso una versione avanzata di GPT-5) di fare da "consulente di carriera" e dire: "Ehi, quale lavoro è perfetto per questa persona?".

🎭 Cosa è emerso? Tre scoperte fondamentali

1. Il Titolo del Lavoro: "Quasi" uguali, ma con un sussurro
Quando il robot ha suggerito il nome del lavoro (es. "Ingegnere" o "HR Manager"), non ha fatto grandi differenze evidenti. Non ha detto "Le donne non possono fare gli ingegneri".
Tuttavia, c'era un piccolo "tintinnio" di pregiudizio: tendeva a suggerire più spesso ruoli legati alle risorse umane per le donne e ruoli più tecnici o operativi per gli uomini. È come se il robot, anche se cerca di essere neutrale, avesse ancora in testa quell'idea antica che "le donne curano le persone, gli uomini gestiscono le macchine".

2. Il Settore: Un equilibrio apparente
Anche per quanto riguarda il settore (es. Tecnologia, Manifatturiero, Servizi), il robot ha mostrato un comportamento abbastanza equilibrato. Non ha escluso le donne dalla tecnologia o gli uomini dall'assistenza clienti. Qui il pregiudizio era meno visibile, come un'ombra che si nasconde dietro un muro.

3. Gli Aggettivi: La vera "bomba" nascosta 💣
Qui è dove la storia diventa interessante. Quando il robot ha dovuto descrivere le persone con degli aggettivi, ecco che ha svelato la sua vera natura.

  • Per le donne: Ha usato parole come "empatica", "accogliente", "di supporto", "gentile". È come se il robot dicesse: "Lei è la persona che ci tiene a farci sentire a nostro agio".
  • Per gli uomini: Ha usato parole come "strategico", "influenzante", "determinato", "ambizioso". È come se il robot dicesse: "Lui è il leader che comanda la nave".

L'analogia della "Camicia Magica":
Immaginate che il robot non veda le persone, ma veda solo una "camicia magica" che indossa.

  • Se la camicia è rosa (donna), il robot le attacca automaticamente un cartellino che dice: "Cuore caldo e mani gentili".
  • Se la camicia è blu (uomo), il cartellino dice: "Mente fredda e comando".
    Anche se sotto la camicia c'è la stessa persona con le stesse capacità, il robot giudica in base al colore del tessuto, non alla persona reale.

🚨 Perché è pericoloso?

Il problema non è solo che il robot è "cattivo", ma che ripete e amplifica i nostri errori.
Se un'azienda usa questo robot per assumere persone, rischia di:

  1. Assumere donne solo per ruoli "di supporto" e uomini per ruoli "di comando".
  2. Creare un mondo del lavoro dove le donne vengono sempre descritte come "brave a collaborare" e gli uomini come "bravi a decidere", rendendo difficile per le donne fare carriera in posizioni di leadership.

È come se il robot fosse un cattivo fotografo: non cambia la realtà, ma usa un filtro che distorce i colori, rendendo tutto più "stereotipato" di quanto non sia nella realtà.

💡 La Conclusione: Cosa dobbiamo fare?

Gli autori ci dicono che non possiamo fidarci ciecamente di questi robot per decisioni delicate come le assunzioni.

  • Trasparenza: Dobbiamo sapere come pensano questi robot.
  • Controllo umano: Non possiamo lasciare che un algoritmo prenda decisioni da solo su chi assume e chi no.
  • Etica: Dobbiamo costruire questi strumenti in modo che imparino a vedere le persone per quello che sono, non per il genere che hanno.

In sintesi: L'Intelligenza Artificiale è uno specchio potente. Se lo specchio è sporco di pregiudizi, rifletterà un mondo distorto. Il nostro compito è pulirlo, affinché possa riflettere la vera uguaglianza.