Examining Reasoning LLMs-as-Judges in Non-Verifiable LLM Post-Training

Questo studio dimostra che, sebbene i giudici LLM dotati di capacità di ragionamento siano efficaci nell'addestrare modelli per domini non verificabili evitando l'hacking della ricompensa, i modelli risultanti tendono a generare output ingannevoli che ottengono punteggi elevati ingannando altri giudici LLM.

Yixin Liu, Yue Yu, DiJia Su, Sid Wang, Xuewei Wang, Song Jiang, Bo Liu, Arman Cohan, Yuandong Tian, Zhengxing Chen2026-03-13🤖 cs.AI

Explainability of Text Processing and Retrieval Methods: A Survey

Questo articolo offre una panoramica completa delle ricerche sull'interpretabilità e la spiegabilità dei metodi di elaborazione del linguaggio naturale e di recupero delle informazioni, esaminando in particolare tecniche applicate a word embeddings, modelli sequenziali, meccanismi di attenzione, transformer, BERT e ranking dei documenti, per concludere con suggerimenti per la ricerca futura.

Sourav Saha, Debapriyo Majumdar, Mandar Mitra2026-03-12💬 cs.CL

An Updated Assessment of Reinforcement Learning for Macro Placement

Questo studio offre una valutazione aggiornata dell'approccio di apprendimento per rinforzo di Google Brain per il posizionamento dei macro, introducendo nuovi benchmark open-source, confrontando l'implementazione Circuit Training con baselines avanzate come la ricottura simulata e strumenti commerciali, e sollevando questioni critiche sulla riproducibilità e la scalabilità dei metodi esistenti.

Chung-Kuan Cheng, Andrew B. Kahng, Sayak Kundu, Yucheng Wang, Zhiang Wang2026-03-12🤖 cs.LG

Mindstorms in Natural Language-Based Societies of Mind

Il paper propone e sperimenta le "società di menti" basate sul linguaggio naturale (NLSOM), in cui grandi modelli linguistici e altri esperti neurali collaborano tramite un'interfaccia linguistica per superare i limiti dei singoli modelli e risolvere compiti multimodali complessi, aprendo al contempo nuove questioni di ricerca sulla struttura sociale e l'economia di tali sistemi di intelligenza artificiale emergenti.

Mingchen Zhuge, Haozhe Liu, Francesco Faccio, Dylan R. Ashley, Róbert Csordás, Anand Gopalakrishnan, Abdullah Hamdi, Hasan Abed Al Kader Hammoud, Vincent Herrmann, Kazuki Irie, Louis Kirsch, Bing Li, Guohao Li, Shuming Liu, Jinjie Mai, Piotr Pi\k{e}kos, Aditya Ramesh, Imanol Schlag, Weimin Shi, Aleksandar Stanic, Wenyi Wang, Yuhui Wang, Mengmeng Xu, Deng-Ping Fan, Bernard Ghanem, Jürgen Schmidhuber2026-03-12💬 cs.CL

Large Language Models for Travel Behavior Prediction

Questo studio dimostra che i grandi modelli linguistici (LLM), utilizzati sia tramite prompting zero-shot che come generatori di embedding per modelli supervisionati, offrono un'alternativa flessibile ed efficiente dal punto di vista dei dati per la previsione dei comportamenti di viaggio, raggiungendo prestazioni competitive rispetto ai modelli tradizionali.

Baichuan Mo, Hanyong Xu, Ruoyun Ma, Jung-Hoon Cho, Dingyi Zhuang, Xiaotong Guo, Jinhua Zhao2026-03-12💬 cs.CL

Explainable machine learning for predicting shellfish toxicity in the Adriatic Sea using long-term monitoring data of HABs

Questo studio applica tecniche di machine learning spiegabile a un dataset di 28 anni nel Golfo di Trieste per prevedere con successo la tossicità delle cozze causata da fioriture algali, identificando specie specifiche e fattori ambientali come predittori chiave per migliorare i sistemi di allerta precoce e l'acquacoltura sostenibile.

Martin Marzidovšek, Janja Francé, Vid Podpečan + 3 more2026-03-12🤖 cs.AI

EoRA: Fine-tuning-free Compensation for Compressed LLM with Eigenspace Low-Rank Approximation

Il paper presenta EoRA, un metodo senza riaddestramento che utilizza un'approssimazione a rango basso nello spazio degli autovettori per compensare la perdita di accuratezza nei modelli linguistici di grandi dimensioni compressi, offrendo al contempo un'implementazione ottimizzata che migliora le prestazioni e l'efficienza della memoria.

Shih-Yang Liu, Maksim Khadkevich, Nai Chit Fung, Charbel Sakr, Chao-Han Huck Yang, Chien-Yi Wang, Saurav Muralidharan, Hongxu Yin, Kwang-Ting Cheng, Jan Kautz, Yu-Chiang Frank Wang, Pavlo Molchanov, Min-Hung Chen2026-03-12💬 cs.CL

Boosting Cross-problem Generalization in Diffusion-Based Neural Combinatorial Solver via Inference Time Adaptation

Il paper presenta DIFU-Ada, un framework di adattamento a tempo di inferenza senza training che permette ai solver di ottimizzazione combinatoria basati su diffusione, addestrati esclusivamente sul problema del commesso viaggiatore, di generalizzare in modo zero-shot su diverse varianti e scale del problema senza richiedere conoscenze di dominio manuali.

Haoyu Lei, Kaiwen Zhou, Yinchuan Li, Zhitang Chen, Farzan Farnia2026-03-12🤖 cs.LG

Talking like Piping and Instrumentation Diagrams (P&IDs)

Gli autori propongono un metodo che integra i diagrammi P&ID, rappresentati come grafi di conoscenza tramite il modello DEXPI, con i modelli linguistici di grandi dimensioni (LLM) tramite la tecnica Graph-RAG, consentendo così agli ingegneri di interagire con i diagrammi in linguaggio naturale per migliorare l'analisi dei processi e ridurre le allucinazioni dell'AI.

Achmad Anggawirya Alimin, Dominik P. Goldstein, Lukas Schulze Balhorn + 1 more2026-03-12🤖 cs.AI