Token-Oriented Object Notation vs JSON: A Benchmark of Plain and Constrained Decoding Generation

Lo studio dimostra che, sebbene TOON offra un potenziale risparmio di token significativo per strutture complesse, il suo vantaggio è spesso annullato dall'overhead del prompt e che la generazione JSON standard, anche senza vincoli, mantiene attualmente la migliore accuratezza e un rapporto efficienza-affidabilità superiore rispetto all'apprendimento in contesto one-shot di TOON.

Ivan Matveev2026-03-05🤖 cs.AI

Entropic-Time Inference: Self-Organizing Large Language Model Decoding Beyond Attention

Il paper propone un nuovo paradigma di inferenza per i grandi modelli linguistici, denominato "inferenza a tempo entropico", che sostituisce la progressione lineare dei token con un flusso guidato dall'incertezza, integrando pianificazione, sparsificazione dell'attenzione e controllo adattivo della temperatura in un unico obiettivo termodinamico per ottimizzare l'allocazione delle risorse computazionali.

Andrew Kiruluta2026-03-05🤖 cs.LG

Escaping the BLEU Trap: A Signal-Grounded Framework with Decoupled Semantic Guidance for EEG-to-Text Decoding

Il paper presenta SemKey, un nuovo framework che supera i limiti delle attuali tecniche di decodifica EEG-testo, come il bias semantico e l'inganno delle metriche BLEU, integrando obiettivi semantici disaccoppiati e un meccanismo di attenzione guidato dai segnali neurali per garantire una generazione di testo fedele e priva di allucinazioni.

Yuchen Wang, Haonan Wang, Yu Guo + 2 more2026-03-05🤖 cs.AI

Quantum-Inspired Self-Attention in a Large Language Model

Il paper propone l'integrazione di un meccanismo di auto-attenzione ispirato alla meccanica quantistica (QISA) nel modello linguistico autoregressivo GPT-1, dimostrando che, pur richiedendo un tempo di inferenza leggermente superiore, questo approccio supera significativamente l'auto-attenzione standard riducendo drasticamente il tasso di errore sui caratteri, sulle parole e la perdita di entropia incrociata.

Nikita Kuznetsov, Niyaz Ismagilov, Ernesto Campos2026-03-05⚛️ quant-ph

From We to Me: Theory Informed Narrative Shift with Abductive Reasoning

Questo articolo presenta un approccio neurosimbolico basato sulla teoria delle scienze sociali e sul ragionamento abduttivo che, estraendo automaticamente regole per guidare i modelli linguistici, riesce a trasformare con successo i testi da una narrativa collettivista a una individualista (e viceversa) mantenendo una fedeltà semantica superiore rispetto ai metodi zero-shot.

Jaikrishna Manojkumar Patil, Divyagna Bavikadi, Kaustuv Mukherji + 5 more2026-03-05🤖 cs.AI