I'm Not Reading All of That: Understanding Software Engineers' Level of Cognitive Engagement with Agentic Coding Assistants

Lo studio evidenzia come l'uso di assistenti di codifica agentic riduca l'impegno cognitivo degli ingegneri del software nel tempo, suggerendo la necessità di nuovi meccanismi di progettazione che favoriscano la riflessione e il ragionamento critico.

Carlos Rafael Catalan, Lheane Marie Dizon, Patricia Nicole Monderin, Emily Kuang

Pubblicato 2026-03-17
📖 5 min di lettura🧠 Approfondimento

Each language version is independently generated for its own context, not a direct translation.

🧠 Il Titolo: "Non leggo tutto quel testo!"

Immagina di avere un assistente personale super intelligente (un "agente AI") che lavora con te per costruire una casa. Tu gli dici: "Costruiscimi una casa con 3 stanze e un giardino". Lui inizia a lavorare da solo, molto velocemente.

Il problema? Mentre lui lavora, tu ti rilassi sulla sedia, guardi il telefono e dici: "Fai tu, tanto sai fare tutto". Quando la casa è finita, guardi solo il risultato finale: "Sembra bella!". Ma non hai mai controllato se le fondamenta sono solide, se i tubi dell'acqua sono collegati bene o se il tetto non crollerà domani.

Questo è esattamente ciò che hanno scoperto gli autori di questo studio: quando usiamo assistenti AI per scrivere codice, smettiamo di pensare attivamente.


🕵️‍♂️ Cosa hanno fatto gli scienziati?

Hanno messo quattro programmatori (dai neofiti ai veterani con 10 anni di esperienza) davanti a un compito: scrivere un programma che legge dei file Excel e fa delle copie.
Hanno usato un assistente AI chiamato Cline (che è come un "collega robot" che pianifica e scrive il codice da solo).

Hanno osservato cosa succedeva nella mente dei programmatori in tre fasi:

  1. La Pianificazione: "Cosa dobbiamo fare?"
  2. L'Esecuzione: "Il robot sta scrivendo il codice."
  3. La Verifica: "Il lavoro è finito, è giusto?"

🔍 Le Scoperte (La Storia in 3 Atti)

1. L'Entusiasmo Iniziale (La Pianificazione)

All'inizio, i programmatori erano molto attenti. Leggevano le istruzioni, parlavano con il robot e controllavano i piani.

  • Analogia: È come quando ordini un pasto al ristorante. Guardi il menu, chiedi al cameriere se il pesce è fresco e decidi cosa vuoi. Qui l'attenzione è alta.

2. Il "Muro di Testo" (L'Esecuzione)

Poi il robot inizia a lavorare. Scrive righe e righe di codice, apre e chiude finestre, usa strumenti.

  • Cosa succede: I programmatori si stancano. Il testo scorre troppo veloce. Uno di loro ha detto letteralmente: "Non leggo tutto quel testo!".
  • L'Analogia: Immagina che il robot ti stia spiegando come ha costruito la casa mentre tu sei seduto lì. Ti parla per 20 minuti di mattoni, cemento e tubature. Dopo 5 minuti, ti annoi, ti guardi intorno e smetti di ascoltare. Il cervello si spegne perché c'è troppo rumore (troppa informazione) e non capisci più il punto.

3. La Trappola del "Risultato Perfetto" (La Verifica)

Quando il robot finisce, i programmatori guardano solo il risultato finale (il file Excel corretto). Se funziona, pensano: "Tutto ok, è perfetto!".

  • Il Problema: Non hanno controllato come è stato fatto. Se il robot ha usato un trucco pericoloso o ha copiato un codice che sembra giusto ma è fragile, nessuno se ne è accorto.
  • L'Analogia: È come se un amico ti desse un puzzle già completato. Tu guardi l'immagine finale: "Bello!". Ma non sai se i pezzi sono incollati male o se mancano pezzi nascosti. Se domani il puzzle si rompe, non saprai perché.

📉 Il Risultato Principale

Più il compito avanzava, meno il cervello umano lavorava.
I programmatori si sono affidati ciecamente al robot ("Sistema 1", il pensiero veloce e automatico) invece di analizzare criticamente il lavoro ("Sistema 2", il pensiero lento e faticoso).
Hanno ricordato solo il "percorso felice" (quando tutto va bene) e hanno ignorato i possibili errori o i dettagli nascosti.


💡 Come possiamo risolvere il problema? (Le Idee per il Futuro)

Gli autori dicono che non dobbiamo smettere di usare l'AI, ma dobbiamo cambiare come ci parla per costringerci a pensare. Ecco due idee creative:

1. Non solo testo, ma "Disegni e Voce"

Invece di far scorrere muri di testo noiosi, l'AI dovrebbe:

  • Disegnare: Mostrare grafici, mappe mentali o diagrammi di flusso che spiegano cosa sta facendo.
    • Analogia: Invece di leggere un manuale di istruzioni di 50 pagine per montare un mobile, l'AI ti mostra un video animato o uno schema visivo. È molto più facile da capire e ricordare.
  • Parlare: Usare una voce umana per spiegare i passaggi.
    • Analogia: È come avere un insegnante che ti spiega a voce mentre disegna alla lavagna, invece di darti solo un foglio di appunti illeggibile.

2. Il "Freno di Emergenza" (Cognitive Forcing)

L'AI dovrebbe essere progettata per fermarsi e farti pensare.

  • L'Idea: Prima di darti la soluzione, l'AI dovrebbe chiederti: "Secondo te, qual è il rischio qui?" o "Guarda questo passaggio, cosa ne pensi?".
  • L'Analogia: Immagina un copilota in un aereo. Invece di guidare lui tutto il tempo, ogni tanto ti chiede: "Ehi, secondo te dovremmo virare a sinistra o a destra? Perché?". Questo ti costringe a guardare fuori dal finestrino e a pensare, invece di addormentarti sulla sedia.

🏁 Conclusione

Il messaggio finale è semplice: L'AI è un ottimo strumento, ma non deve farci diventare dei "robot passivi".

Se vogliamo che i software che usiamo ogni giorno (dalle app bancarie ai sistemi medici) siano sicuri, noi umani dobbiamo rimanere svegli, curiosi e critici. Dobbiamo trasformare l'AI da un "esecutore che fa tutto al posto nostro" a un "partner che ci stimola a pensare meglio".

Come dice il paper: "Non siamo qui solo per ottenere la risposta giusta, ma per capire come siamo arrivati a quella risposta."

Ricevi articoli come questo nella tua casella di posta

Digest giornalieri o settimanali personalizzati in base ai tuoi interessi. Riassunti Gist o tecnici, nella tua lingua.

Prova Digest →