You Didn't Have to Say It like That: Subliminal Learning from Faithful Paraphrases

Il documento dimostra che i modelli linguistici possono acquisire subliminalmente le preferenze di un modello "insegnante" (come l'amore per un animale specifico) semplicemente addestrandosi su parafrasi fedeli del suo output, anche quando il contenuto semantico è irrilevante o contraddice esplicitamente tale preferenza, rivelando un rischio critico di trasmissione di bias nei pipeline di generazione dati che non possono essere rilevati tramite ispezione del contenuto.

Isaia Gisler (ETH Zürich), Zhonghao He (University of Cambridge), Tianyi Qiu (Peking University)2026-03-11🤖 cs.LG

Build, Borrow, or Just Fine-Tune? A Political Scientist's Guide to Choosing NLP Models

Questo studio offre ai politologi un quadro decisionale pratico per scegliere tra modelli NLP specializzati e soluzioni di fine-tuning, dimostrando che per la maggior parte delle categorie di eventi comuni i modelli generici finetunati offrono prestazioni comparabili a quelle dei modelli di dominio, rendendo la scelta dipendente dalla prevalenza delle classi, dalla tolleranza all'errore e dalle risorse disponibili.

Shreyas Meher2026-03-11💬 cs.CL

Automatic Cardiac Risk Management Classification using large-context Electronic Patients Health Records

Questo studio presenta un framework di classificazione automatizzata per la gestione del rischio cardiaco negli anziani, dimostrando che un'architettura Transformer personalizzata supera sia i metodi tradizionali che i modelli linguistici generici nell'analisi di lunghe storie cliniche non strutturate.

Jacopo Vitale, David Della Morte, Luca Bacco, Mario Merone, Mark de Groot, Saskia Haitjema, Leandro Pecchia, Bram van Es2026-03-11🤖 cs.AI

Fusing Semantic, Lexical, and Domain Perspectives for Recipe Similarity Estimation

Questa ricerca propone un metodo avanzato per stimare la similarità tra ricette integrando prospettive semantiche, lessicali e di dominio, validato attraverso un'interfaccia web con esperti che ha confermato l'efficacia dell'approccio nel supportare applicazioni come diete personalizzate e generazione automatica di ricette.

Denica Kjorvezir, Danilo Najkov, Eva Valencič, Erika Jesenko, Barbara Koroišic Seljak, Tome Eftimov, Riste Stojanov2026-03-11💬 cs.CL

ESAinsTOD: A Unified End-to-End Schema-Aware Instruction-Tuning Framework for Task-Oriented Dialog Modeling

Il paper presenta ESAinsTOD, un framework unificato end-to-end per il dialogo orientato al compito che, attraverso l'addestramento su istruzioni e meccanismi di allineamento allo schema, supera i modelli esistenti offrendo prestazioni superiori, maggiore robustezza al rumore e capacità di generalizzazione in scenari a risorse limitate.

Dechuan Teng, Chunlin Lu, Libo Qin, Wanxiang Che2026-03-11🤖 cs.AI

ActiveUltraFeedback: Efficient Preference Data Generation using Active Learning

Il paper introduce ActiveUltraFeedback, una pipeline di apprendimento attivo modulare che riduce significativamente i costi di annotazione dei dati di preferenza per l'allineamento dei modelli linguistici, ottenendo prestazioni superiori o paragonabili a quelle dei metodi statici con solo un sesto dei dati necessari.

Davit Melikidze, Marian Schneider, Jessica Lam, Martin Wertich, Ido Hakimi, Barna Pásztor, Andreas Krause2026-03-11🤖 cs.AI

Mousse: Rectifying the Geometry of Muon with Curvature-Aware Preconditioning

Il paper propone Mousse, un nuovo ottimizzatore che combina la stabilità spettrale di Muon con l'adattabilità geometrica di Shampoo tramite una precondizionamento consapevole della curvatura, ottenendo una riduzione del 12% dei passi di addestramento per modelli linguistici senza sovraccarichi computazionali significativi.

Yechen Zhang, Shuhao Xing, Junhao Huang, Kai Lv, Yunhua Zhou, Xipeng Qiu, Qipeng Guo, Kai Chen2026-03-11🤖 cs.AI

Evaluation of LLMs in retrieving food and nutritional context for RAG systems

Lo studio valuta l'efficacia di quattro modelli linguistici (LLM) nell'estrarre dati da un database nutrizionale tramite sistemi RAG, dimostrando che, sebbene eccellano nel tradurre query naturali in filtri strutturati per richieste semplici e moderate, incontrano difficoltà significative quando le domande implicano vincoli non esprimibili tramite i metadati disponibili.

Maks Požarnik Vavken, Matevž Ogrinc, Tome Eftimov, Barbara Koroušic Seljak2026-03-11💬 cs.CL

MUGEN: Evaluating and Improving Multi-audio Understanding of Large Audio-Language Models

Il paper introduce MUGEN, un benchmark completo che rivela le carenze dei modelli audio-linguistici nella comprensione di più audio simultanei e dimostra che strategie di inferenza senza addestramento, come la permutazione degli input e il ragionamento a catena, possono migliorare significativamente le prestazioni.

Chih-Kai Yang, Yun-Shao Tsai, Yu-Kai Guo, Ping-Le Tsai, Yen-Ting Piao, Hung-Wei Chen, Ting-Lin Hsiao, Yun-Man Hsu, Ke-Han Lu, Hung-yi Lee2026-03-11🤖 cs.AI

EXPLORE-Bench: Egocentric Scene Prediction with Long-Horizon Reasoning

Il paper introduce EXPLORE-Bench, un nuovo benchmark basato su video in prima persona per valutare la capacità dei modelli linguistici multimodali di prevedere le conseguenze fisiche a lungo termine di azioni sequenziali in scenari egocentrici, evidenziando un significativo divario rispetto alle prestazioni umane e l'efficacia parziale del ragionamento passo-passo nel colmarlo.

Chengjun Yu, Xuhan Zhu, Chaoqun Du, Pengfei Yu, Wei Zhai, Yang Cao, Zheng-Jun Zha2026-03-11🤖 cs.AI

EPIC-EuroParl-UdS: Information-Theoretic Perspectives on Translation and Interpreting

Questo articolo presenta la versione aggiornata e combinata del corpus EPIC-EuroParl-UdS, che integra discorsi originali, traduzioni e interpretazioni del Parlamento Europeo con nuove annotazioni linguistiche e indici di sorpresa, fornendo una risorsa fondamentale per la ricerca sulle differenze tra modalità parlate e scritte e per lo studio della previsione delle particelle riempitive nell'interpretazione tramite modelli linguistici.

Maria Kunilovskaya, Christina Pollkläsener2026-03-11💬 cs.CL