Link Prediction for Event Logs in the Process Industry

Questo studio presenta un modello di record linking, definito come risoluzione di coreferenza cross-documento, che combina tecniche di inferenza linguistica naturale e similarità testuale semantica per migliorare la qualità e la connettività dei registri di turno frammentati nell'industria di processo tedesca, superando significativamente le prestazioni dei modelli di base.

Anastasia Zhukova, Thomas Walton, Christian E. Lobmüller + 1 more2026-03-04💬 cs.CL

No Answer Needed: Predicting LLM Answer Accuracy from Question-Only Linear Probes

Questo studio dimostra che è possibile prevedere l'accuratezza delle risposte di un LLM analizzando le sue attivazioni interne immediatamente dopo la lettura della domanda e prima della generazione della risposta, rivelando che tale segnale di "correttezza anticipata" generalizza su diversi modelli e domini, sebbene con limitazioni nel ragionamento matematico, e correla anche con la capacità del modello di ammettere l'ignoranza.

Iván Vicente Moreno Cencerrado, Arnau Padrés Masdemont, Anton Gonzalvez Hawthorne + 2 more2026-03-04💬 cs.CL

Prior-based Noisy Text Data Filtering: Fast and Strong Alternative For Perplexity

Il lavoro propone un metodo di filtraggio dei dati testuali basato sulle probabilità a priori dei token, che offre un'alternativa rapida ed efficace al calcolo della perplessità per la selezione dei corpus di addestramento, riducendo i costi computazionali di oltre 1000 volte e mantenendo alte prestazioni su benchmark downstream, codici e lingue multiple.

Yeongbin Seo, Gayoung Kim, Jaehyung Kim + 1 more2026-03-04💬 cs.CL

Bridging Kolmogorov Complexity and Deep Learning: Asymptotically Optimal Description Length Objectives for Transformers

Questo articolo introduce un quadro teorico basato sulla complessità di Kolmogorov per definire obiettivi di lunghezza di descrizione asintoticamente ottimali per i Transformer, dimostrando la loro esistenza e analizzando un obiettivo variazionale pratico che, sebbene favorisca soluzioni a bassa complessità con forte generalizzazione, pone sfide significative per l'ottimizzazione standard.

Peter Shaw, James Cohan, Jacob Eisenstein + 1 more2026-03-04💬 cs.CL

Benefits and Pitfalls of Reinforcement Learning for Language Model Planning: A Theoretical Perspective

Questo lavoro teorico analizza i vantaggi e le limitazioni dell'apprendimento per rinforzo nella pianificazione dei modelli linguistici, dimostrando che, sebbene superi la fine-tuning supervisionata grazie all'esplorazione, la politica di gradiente soffre di un collasso della diversità, mentre l'apprendimento Q offre vantaggi superiori nella preservazione della diversità e nell'apprendimento off-policy, a condizione di un'attenta progettazione della ricompensa.

Siwei Wang, Yifei Shen, Haoran Sun + 5 more2026-03-04📊 stat

Death of the Novel(ty): Beyond n-Gram Novelty as a Metric for Textual Creativity

Questo studio dimostra che la novità basata sugli n-grammi è una metrica inadeguata per valutare la creatività testuale, poiché ignora l'importanza dell'appropriatezza e rivela che, sebbene le espressioni ad alta novità siano spesso giudicate non creative o non pragmatiche, i modelli linguistici di frontiera riescono a identificare meglio la creatività rispetto alle metriche tradizionali basate sugli n-grammi.

Arkadiy Saakyan, Najoung Kim, Smaranda Muresan + 1 more2026-03-04💬 cs.CL

LaDiR: Latent Diffusion Enhances LLMs for Text Reasoning

Il paper presenta LaDiR, un nuovo framework di ragionamento che potenzia i modelli linguistici di grandi dimensioni integrando la generazione autoregressiva con la capacità iterativa di raffinamento dei modelli di diffusione latente, permettendo così una pianificazione e revisione olistica dei processi di ragionamento che migliora accuratezza, diversità e interpretabilità.

Haoqiang Kang, Yizhe Zhang, Nikki Lijing Kuang + 4 more2026-03-04💬 cs.CL

Mitigating Over-Refusal in Aligned Large Language Models via Inference-Time Activation Energy

Questo lavoro presenta Energy Landscape Steering (ELS), un framework senza riaddestramento che utilizza un modello energetico esterno per guidare dinamicamente le attivazioni interne dei modelli linguistici durante l'inferenza, riducendo significativamente i rifiuti eccessivi di richieste innocue mantenendo al contempo elevate prestazioni di sicurezza.

Eric Hanchen Jiang, Weixuan Ou, Run Liu + 8 more2026-03-04📊 stat

STARS: Synchronous Token Alignment for Robust Supervision in Large Language Models

Il paper presenta STARS, un nuovo algoritmo di allineamento per modelli linguistici di grandi dimensioni che supera i limiti delle tecniche esistenti basate sull'incertezza, garantendo un'esecuzione parallela sincrona, una rilevazione più robusta degli errori e una maggiore efficienza computazionale senza compromettere la qualità dell'allineamento.

Mohammad Atif Quamar, Mohammad Areeb, Mikhail Kuznetsov + 2 more2026-03-04💬 cs.CL

Are We Asking the Right Questions? On Ambiguity in Natural Language Queries for Tabular Data Analysis

Il paper propone un nuovo quadro concettuale che tratta l'ambiguità nelle query linguistiche per l'analisi di dati tabellari come una caratteristica cooperativa tra utente e sistema, evidenziando la necessità di distinguere tra query risolubili e non risolubili per migliorare la progettazione e la valutazione delle interfacce naturali.

Daniel Gomm, Cornelius Wolff, Madelon Hulsebos2026-03-04💬 cs.CL