Quantum-Inspired Self-Attention in a Large Language Model

Il paper propone l'integrazione di un meccanismo di auto-attenzione ispirato alla meccanica quantistica (QISA) nel modello linguistico autoregressivo GPT-1, dimostrando che, pur richiedendo un tempo di inferenza leggermente superiore, questo approccio supera significativamente l'auto-attenzione standard riducendo drasticamente il tasso di errore sui caratteri, sulle parole e la perdita di entropia incrociata.

Nikita Kuznetsov, Niyaz Ismagilov, Ernesto Campos2026-03-05⚛️ quant-ph

From We to Me: Theory Informed Narrative Shift with Abductive Reasoning

Questo articolo presenta un approccio neurosimbolico basato sulla teoria delle scienze sociali e sul ragionamento abduttivo che, estraendo automaticamente regole per guidare i modelli linguistici, riesce a trasformare con successo i testi da una narrativa collettivista a una individualista (e viceversa) mantenendo una fedeltà semantica superiore rispetto ai metodi zero-shot.

Jaikrishna Manojkumar Patil, Divyagna Bavikadi, Kaustuv Mukherji + 5 more2026-03-05🤖 cs.AI

Fragile Thoughts: How Large Language Models Handle Chain-of-Thought Perturbations

Questo studio valuta empiricamente la robustezza di 13 modelli linguistici di grandi dimensioni a cinque tipi di perturbazioni nel ragionamento a catena di pensiero, rivelando che la vulnerabilità è eterogenea e dipende sia dal tipo di errore che dalla scala del modello, con benefici di scalabilità significativi per alcuni errori ma limitati per compiti di ragionamento dimensionale.

Ashwath Vaithinathan Aravindan, Mayank Kejriwal2026-03-05🤖 cs.AI