From Variance to Invariance: Qualitative Content Analysis for Narrative Graph Annotation

Questo lavoro presenta un framework di annotazione basato su grafi per le narrazioni economiche che integra l'analisi qualitativa dei contenuti per ridurre gli errori, dimostrando attraverso un esperimento fattoriale che le rappresentazioni localmente vincolate e le metriche di distanza appropriate migliorano l'accordo tra annotatori e la gestione della variazione umana nell'etichettatura.

Junbo Huang, Max Weinig, Ulrich Fritsche + 1 more2026-03-05🤖 cs.AI

Rich Insights from Cheap Signals: Efficient Evaluations via Tensor Factorization

Questo lavoro propone un modello statistico basato sulla fattorizzazione tensoriale che combina valutazioni automatiche a basso costo con un limitato set di dati umani per ottenere valutazioni granulari ed efficienti delle prestazioni dei modelli generativi, superando i colli di bottiglia dei dati e fornendo stime accurate delle preferenze umane senza necessità di nuove annotazioni.

Felipe Maia Polo, Aida Nematzadeh, Virginia Aglietti + 2 more2026-03-05🤖 cs.AI

Structured vs. Unstructured Pruning: An Exponential Gap

Questo lavoro dimostra che esiste un divario esponenziale tra le due forme di potatura, rivelando che la potatura strutturata (neuroni) richiede un numero di neuroni nascosti proporzionale a d/εd/\varepsilon per approssimare un singolo neurone ReLU, mentre la potatura non strutturata (pesi) necessita solo di O(dlog(1/ε))O(d\log(1/\varepsilon)) neuroni.

Davide Ferre', Frédéric Giroire, Frederik Mallmann-Trenn + 1 more2026-03-05🤖 cs.AI

Draft-Conditioned Constrained Decoding for Structured Generation in LLMs

Il paper propone la Draft-Conditioned Constrained Decoding (DCCD), un metodo di inferenza senza addestramento che separa la pianificazione semantica dal vincolo strutturale tramite una generazione preliminare libera, migliorando significativamente l'accuratezza nella generazione di output strutturati e l'efficienza parametrica rispetto alle tecniche di decodifica vincolata tradizionali.

Avinash Reddy, Thayne T. Walker, James S. Ide + 1 more2026-03-05🤖 cs.AI

Entropic-Time Inference: Self-Organizing Large Language Model Decoding Beyond Attention

Il paper propone un nuovo paradigma di inferenza per i grandi modelli linguistici, denominato "inferenza a tempo entropico", che sostituisce la progressione lineare dei token con un flusso guidato dall'incertezza, integrando pianificazione, sparsificazione dell'attenzione e controllo adattivo della temperatura in un unico obiettivo termodinamico per ottimizzare l'allocazione delle risorse computazionali.

Andrew Kiruluta2026-03-05🤖 cs.LG

Fragile Thoughts: How Large Language Models Handle Chain-of-Thought Perturbations

Questo studio valuta empiricamente la robustezza di 13 modelli linguistici di grandi dimensioni a cinque tipi di perturbazioni nel ragionamento a catena di pensiero, rivelando che la vulnerabilità è eterogenea e dipende sia dal tipo di errore che dalla scala del modello, con benefici di scalabilità significativi per alcuni errori ma limitati per compiti di ragionamento dimensionale.

Ashwath Vaithinathan Aravindan, Mayank Kejriwal2026-03-05🤖 cs.AI

Prompt-Dependent Ranking of Large Language Models with Uncertainty Quantification

Questo studio propone un framework per la generazione di classifiche di modelli linguistici su larga scala che, integrando la quantificazione dell'incertezza statistica attraverso un modello Bradley-Terry-Luce contestuale, evita decisioni errate basate su differenze di ranking non significative e fornisce insiemi di confidenza validi per le valutazioni specifiche del prompt.

Angel Rodrigo Avelar Menendez, Yufeng Liu, Xiaowu Dai2026-03-05🤖 cs.LG