Draft-Conditioned Constrained Decoding for Structured Generation in LLMs

Il paper propone la Draft-Conditioned Constrained Decoding (DCCD), un metodo di inferenza senza addestramento che separa la pianificazione semantica dal vincolo strutturale tramite una generazione preliminare libera, migliorando significativamente l'accuratezza nella generazione di output strutturati e l'efficienza parametrica rispetto alle tecniche di decodifica vincolata tradizionali.

Avinash Reddy, Thayne T. Walker, James S. Ide + 1 more2026-03-05🤖 cs.AI

Token-Oriented Object Notation vs JSON: A Benchmark of Plain and Constrained Decoding Generation

Lo studio dimostra che, sebbene TOON offra un potenziale risparmio di token significativo per strutture complesse, il suo vantaggio è spesso annullato dall'overhead del prompt e che la generazione JSON standard, anche senza vincoli, mantiene attualmente la migliore accuratezza e un rapporto efficienza-affidabilità superiore rispetto all'apprendimento in contesto one-shot di TOON.

Ivan Matveev2026-03-05🤖 cs.AI

Entropic-Time Inference: Self-Organizing Large Language Model Decoding Beyond Attention

Il paper propone un nuovo paradigma di inferenza per i grandi modelli linguistici, denominato "inferenza a tempo entropico", che sostituisce la progressione lineare dei token con un flusso guidato dall'incertezza, integrando pianificazione, sparsificazione dell'attenzione e controllo adattivo della temperatura in un unico obiettivo termodinamico per ottimizzare l'allocazione delle risorse computazionali.

Andrew Kiruluta2026-03-05🤖 cs.LG

Escaping the BLEU Trap: A Signal-Grounded Framework with Decoupled Semantic Guidance for EEG-to-Text Decoding

Il paper presenta SemKey, un nuovo framework che supera i limiti delle attuali tecniche di decodifica EEG-testo, come il bias semantico e l'inganno delle metriche BLEU, integrando obiettivi semantici disaccoppiati e un meccanismo di attenzione guidato dai segnali neurali per garantire una generazione di testo fedele e priva di allucinazioni.

Yuchen Wang, Haonan Wang, Yu Guo + 2 more2026-03-05🤖 cs.AI

Quantum-Inspired Self-Attention in a Large Language Model

Il paper propone l'integrazione di un meccanismo di auto-attenzione ispirato alla meccanica quantistica (QISA) nel modello linguistico autoregressivo GPT-1, dimostrando che, pur richiedendo un tempo di inferenza leggermente superiore, questo approccio supera significativamente l'auto-attenzione standard riducendo drasticamente il tasso di errore sui caratteri, sulle parole e la perdita di entropia incrociata.

Nikita Kuznetsov, Niyaz Ismagilov, Ernesto Campos2026-03-05⚛️ quant-ph

From We to Me: Theory Informed Narrative Shift with Abductive Reasoning

Questo articolo presenta un approccio neurosimbolico basato sulla teoria delle scienze sociali e sul ragionamento abduttivo che, estraendo automaticamente regole per guidare i modelli linguistici, riesce a trasformare con successo i testi da una narrativa collettivista a una individualista (e viceversa) mantenendo una fedeltà semantica superiore rispetto ai metodi zero-shot.

Jaikrishna Manojkumar Patil, Divyagna Bavikadi, Kaustuv Mukherji + 5 more2026-03-05🤖 cs.AI