Causally Grounded Mechanistic Interpretability for LLMs with Faithful Natural-Language Explanations

Questo lavoro propone una pipeline che collega l'analisi dei circuiti neurali alle spiegazioni in linguaggio naturale per i modelli linguistici, dimostrando che è possibile generare spiegazioni fedeli e di alta qualità per l'identificazione di oggetti indiretti, pur rivelando la presenza di meccanismi di backup distribuiti e la scarsa correlazione tra la confidenza del modello e la fedeltà della spiegazione.

Ajay Pravin Mahale2026-03-12💬 cs.CL

The System Hallucination Scale (SHS): A Minimal yet Effective Human-Centered Instrument for Evaluating Hallucination-Related Behavior in Large Language Models

Il documento introduce la System Hallucination Scale (SHS), uno strumento psicometrico leggero e incentrato sull'utente per valutare in modo rapido e interpretabile il comportamento allucinatorio dei modelli linguistici su larga scala dal punto di vista dell'interazione reale, distinguendosi dai tradizionali rilevatori automatici.

Heimo Müller, Dominik Steiger, Markus Plass, Andreas Holzinger2026-03-12💬 cs.CL

PoultryLeX-Net: Domain-Adaptive Dual-Stream Transformer Architecture for Large-Scale Poultry Stakeholder Modeling

Il paper presenta PoultryLeX-Net, un'architettura transformer duale adattata al dominio che combina modelli lessicali e contestuali per analizzare con elevata precisione i sentimenti e i temi relativi all'industria avicola sui social media, superando le prestazioni dei modelli di base esistenti.

Stephen Afrifa, Biswash Khatiwada, Kapalik Khanal, Sanjay Shah, Lingjuan Wang-Li, Ramesh Bahadur Bist2026-03-12💬 cs.CL

TAMUSA-Chat: A Domain-Adapted Large Language Model Conversational System for Research and Responsible Deployment

Questo articolo presenta TAMUSA-Chat, un framework di ricerca per conversazioni basate su modelli linguistici su larga scala adattati a contesti istituzionali, che integra tecniche di affinamento supervisionato e generazione aumentata da recupero per garantire trasparenza, conformità normativa e pratiche di intelligenza artificiale responsabile.

Izzat Alsmadi, Anas Alsobeh2026-03-12💬 cs.CL

CEI: A Benchmark for Evaluating Pragmatic Reasoning in Language Models

Il documento presenta CEI, un nuovo benchmark composto da 300 scenari validati da umani progettato per valutare la capacità dei modelli linguistici di inferire significati pragmatici complessi (come sarcasmo, cortesia strategica e aggressività passiva) in contesti sociali e relazionali caratterizzati da diverse dinamiche di potere.

Jon Chun, Hannah Sussman, Adrian Mangine, Murathan Kocaman, Kirill Sidorko, Abhigya Koirala, Andre McCloud, Gwen Eisenbeis, Wisdom Akanwe, Moustapha Gassama, Eliezer Gonzalez Chirinos, Anne-Duncan Enright, Peter Dunson, Tiffanie Ng, Anna von Rosenstiel, Godwin Idowu2026-03-12💬 cs.CL

Empathy Is Not What Changed: Clinical Assessment of Psychological Safety Across GPT Model Generations

Nonostante le proteste degli utenti secondo cui i nuovi modelli OpenAI avrebbero perso empatia, uno studio clinico dimostra che i punteggi di empatia sono rimasti invariati tra le generazioni, rivelando invece che la percezione di un calo è dovuta a un cambiamento nella postura di sicurezza: i modelli più recenti hanno migliorato il rilevamento delle crisi ma ridotto la sicurezza dei consigli, creando un compromesso invisibile che gli utenti interpretano erroneamente come una mancanza di empatia.

Michael Keeman, Anastasia Keeman2026-03-12💬 cs.CL

Automated evaluation of LLMs for effective machine translation of Mandarin Chinese to English

Questo studio presenta un framework automatizzato di valutazione che, confrontando Google Translate con modelli LLM come GPT-4o e DeepSeek su testi cinesi di varia natura, rivela che, sebbene le prestazioni siano eccellenti nella traduzione giornalistica, rimangono sfide significative nel preservare le sfumature culturali e le espressioni figurative nei testi letterari.

Yue Zhang, Rodney Beard, John Hawkins, Rohitash Chandra2026-03-12💬 cs.CL

A Retrieval-Augmented Language Assistant for Unmanned Aircraft Safety Assessment and Regulatory Compliance

Questo articolo presenta e convalida un assistente linguistico basato sul recupero di informazioni, progettato per supportare la valutazione della sicurezza e la conformità normativa dei sistemi di aeromobili senza equipaggio, garantendo tracciabilità e affidabilità attraverso l'uso esclusivo di fonti regolamentari autorevoli e citazioni verificabili.

Gabriele Immordino, Andrea Vaiuso, Marcello Righi2026-03-12💬 cs.CL

Leveraging Wikidata for Geographically Informed Sociocultural Bias Dataset Creation: Application to Latin America

Questo paper presenta la creazione del dataset LatamQA, composto da oltre 26.000 domande e risposte multilingue derivate da Wikipedia e Wikidata, utilizzato per valutare e rivelare i pregiudizi culturali e le disparità linguistiche dei modelli linguistici su larga scala nei confronti delle diverse culture dell'America Latina.

Yannis Karmim (ALMAnaCH), Renato Pino (UCHILE), Hernan Contreras (UCHILE), Hernan Lira (CENIA), Sebastian Cifuentes (CENIA), Simon Escoffier (PUC), Luis Martí (UP4, ALPAGE), Djamé Seddah (UP4, ALPAGE), Valentin Barrière (UCHILE, CENIA)2026-03-12💬 cs.CL

SpreadsheetArena: Decomposing Preference in LLM Generation of Spreadsheet Workbooks

Il paper introduce SpreadsheetArena, una piattaforma per la valutazione tramite confronti ciechi delle prestazioni dei modelli linguistici nella generazione end-to-end di fogli di calcolo, evidenziando come le preferenze varino in base al contesto e come i modelli attuali faticino a rispettare le best practice di dominio specifico.

Srivatsa Kundurthy, Clara Na, Michael Handley, Zach Kirshner, Chen Bo Calvin Zhang, Manasi Sharma, Emma Strubell, John Ling2026-03-12💬 cs.CL

SENS-ASR: Semantic Embedding injection in Neural-transducer for Streaming Automatic Speech Recognition

Il paper presenta SENS-ASR, un approccio che migliora la qualità della trascrizione nei sistemi di riconoscimento vocale in streaming iniettando informazioni semantiche estratte da un modulo addestrato tramite distillazione della conoscenza, ottenendo così una significativa riduzione del tasso di errore delle parole in scenari con finestre temporali ridotte.

Youness Dkhissi (LIUM), Valentin Vielzeuf (LIUM), Elys Allesiardo (LIUM), Anthony Larcher (LIUM)2026-03-12💬 cs.CL

Personalized Group Relative Policy Optimization for Heterogenous Preference Alignment

Il paper introduce P-GRPO, un nuovo framework di allineamento che supera i limiti del GRPO standard nella gestione delle preferenze eterogenee normalizzando i vantaggi rispetto a storie di reward specifiche per gruppo, consentendo così ai modelli linguistici di adattarsi più efficacemente e rapidamente a diverse preferenze individuali senza sacrificare le capacità generali.

Jialu Wang, Heinrich Peters, Asad A. Butt, Navid Hashemi, Alireza Hashemi, Pouya M. Ghari, Joseph Hoover, James Rae, Morteza Dehghani2026-03-12🤖 cs.LG