Rigidity in LLM Bandits with Implications for Human-AI Dyads

Lo studio dimostra che i modelli linguistici di grandi dimensioni (LLM) mostrano bias decisionali rigidi e una scarsa capacità di esplorazione in contesti a due bracci, comportamenti che persistono indipendentemente dalle impostazioni di decodifica e che, come rivelato dalla modellazione computazionale, derivano da bassi tassi di apprendimento e alte temperature inverse, con implicazioni significative per le interazioni uomo-AI.

Haomiaomiao Wang, Tomás E Ward, Lili Zhang2026-03-10💻 cs

Large Language Model for Discrete Optimization Problems: Evaluation and Step-by-step Reasoning

Questo studio valuta le capacità dei modelli linguistici di grandi dimensioni (LLM) nel risolvere problemi di ottimizzazione discreta su larga scala, rivelando che le prestazioni migliori dipendono dalla forza del modello e che tecniche come il ragionamento passo-passo (CoT) non sono sempre efficaci, fornendo così linee guida e benchmark per ricerche future.

Tianhao Qian, Guilin Qi, Z. Y. Wu, Ran Gu, Xuanyi Liu, Canchen Lyu2026-03-10💬 cs.CL

DECADE: A Temporally-Consistent Unsupervised Diffusion Model for Enhanced Rb-82 Dynamic Cardiac PET Image Denoising

Il paper presenta DECADE, un modello di diffusione non supervisionato e temporalmente coerente che migliora il denoising delle immagini PET cardiache dinamiche con Rb-82, preservando l'accuratezza quantitativa e la qualità delle immagini senza richiedere dati di addestramento accoppiati.

Yinchi Zhou, Liang Guo, Huidong Xie, Yuexi Du, Ashley Wang, Menghua Xia, Tian Yu, Ramesh Fazzone-Chettiar, Christopher Weyman, Bruce Spottiswoode, Vladimir Panin, Kuangyu Shi, Edward J. Miller, Attila Feher, Albert J. Sinusas, Nicha C. Dvornek, Chi Liu2026-03-10💻 cs

QuadAI at SemEval-2026 Task 3: Ensemble Learning of Hybrid RoBERTa and LLMs for Dimensional Aspect-Based Sentiment Analysis

Il paper presenta QuadAI, un sistema per l'analisi del sentiment basato su aspetti multidimensionale che combina un encoder RoBERTa ibrido con modelli linguistici di grandi dimensioni (LLM) tramite apprendimento d'insieme, ottenendo risultati significativamente migliori rispetto ai modelli individuali.

A. J. W. de Vink, Filippos Karolos Ventirozos, Natalia Amat-Lefort, Lifeng Han2026-03-10💬 cs.CL

Dual-Metric Evaluation of Social Bias in Large Language Models: Evidence from an Underrepresented Nepali Cultural Context

Questo studio valuta i pregiudizi sociali in sette modelli linguistici di grandi dimensioni all'interno del contesto culturale nepalese, rivelando che le metriche di accordo esplicito non catturano adeguatamente i bias generativi impliciti e sottolineando la necessità di dataset culturalmente fondati per le società sottorappresentate.

Ashish Pandey, Tek Raj Chhetri2026-03-10💬 cs.CL

Gradient Iterated Temporal-Difference Learning

Questo lavoro introduce il Gradient Iterated Temporal-Difference learning, un nuovo algoritmo che modifica l'apprendimento iterato calcolando i gradienti sui target mobili per creare un metodo TD basato sul gradiente che, pur risolvendo i problemi di divergenza, mantiene una velocità di apprendimento competitiva rispetto ai metodi semi-gradiente, come dimostrato su benchmark Atari.

Théo Vincent, Kevin Gerhardt, Yogesh Tripathi, Habib Maraqten, Adam White, Martha White, Jan Peters, Carlo D'Eramo2026-03-10🤖 cs.LG

AI Steerability 360: A Toolkit for Steering Large Language Models

Il paper presenta AI Steerability 360, una libreria Python open-source e nativa di Hugging Face che offre un'interfaccia unificata per controllare, comporre e valutare in modo sistematico i metodi di steering dei grandi modelli linguistici attraverso quattro superfici di controllo: input, struttura, stato e output.

Erik Miehling, Karthikeyan Natesan Ramamurthy, Praveen Venkateswaran, Irene Ko, Pierre Dognin, Moninder Singh, Tejaswini Pedapati, Avinash Balakrishnan, Matthew Riemer, Dennis Wei, Inge Vejsbjerg, Elizabeth M. Daly, Kush R. Varshney2026-03-10💬 cs.CL

SynPlanResearch-R1: Encouraging Tool Exploration for Deep Research with Synthetic Plans

Il paper presenta SynPlanResearch-R1, un framework che migliora le prestazioni degli agenti di ricerca web sintetizzando traiettorie di utilizzo degli strumenti che incoraggiano un'esplorazione più profonda durante il fine-tuning supervisionato, ottenendo risultati superiori rispetto alle tecniche attuali su diversi benchmark.

Hansi Zeng, Zoey Li, Yifan Gao, Chenwei Zhang, Xiaoman Pan, Tao Yang, Fengran Mo, Jiacheng Lin, Xian Li, Jingbo Shang2026-03-10💬 cs.CL