WavSLM: Single-Stream Speech Language Modeling via WavLM Distillation

Il paper presenta WavSLM, un modello linguistico per il parlato che, tramite la distillazione di rappresentazioni WavLM in un unico codice e l'ottimizzazione di un obiettivo di previsione autoregressiva, riesce a modellare congiuntamente informazioni semantiche e acustiche in un singolo flusso di token senza supervisione testuale, ottenendo prestazioni competitive con minori parametri e dati di addestramento.

Luca Della Libera, Cem Subakan, Mirco Ravanelli2026-03-06🤖 cs.AI

Med-V1: Small Language Models for Zero-shot and Scalable Biomedical Evidence Attribution

Il paper presenta Med-V1, una famiglia di modelli linguistici di piccole dimensioni addestrata su dati sintetici di alta qualità che, pur essendo efficiente ed economica, supera le prestazioni dei modelli di base e compete con i modelli LLM all'avanguardia nel compito di attribuzione e verifica delle evidenze biomediche, offrendo applicazioni pratiche per il rilevamento di allucinazioni e la verifica di linee guida cliniche.

Qiao Jin, Yin Fang, Lauren He + 12 more2026-03-06🤖 cs.AI

DiSCTT: Consensus-Guided Self-Curriculum for Efficient Test-Time Adaptation in Reasoning

Il paper presenta DiSCTT, un framework di adattamento al test basato su un curriculum self-guidato che ottimizza le prestazioni dei modelli di ragionamento assegnando dinamicamente strategie di apprendimento supervisionato o per rinforzo in base al livello di incertezza e consenso delle traiettorie di ragionamento, ottenendo così maggiore accuratezza ed efficienza computazionale rispetto alle tecniche esistenti.

Mohammad Mahdi Moradi, Sudhir Mudur2026-03-06💬 cs.CL

An Exploration-Analysis-Disambiguation Reasoning Framework for Word Sense Disambiguation with Low-Parameter LLMs

Questo studio dimostra che l'impiego di strategie di fine-tuning incentrate sul ragionamento, come l'analisi della catena di pensiero e dei contesti lessicali, permette a modelli linguistici di grandi dimensioni ma con pochi parametri (<4B) di raggiungere prestazioni nella disambiguazione del senso delle parole paragonabili o superiori a quelle di modelli molto più grandi, garantendo al contempo una significativa riduzione dei costi computazionali ed energetici.

Deshan Sumanathilaka, Nicholas Micallef, Julian Hough2026-03-06💬 cs.CL

Dissociating Direct Access from Inference in AI Introspection

Lo studio dimostra che i modelli di intelligenza artificiale rilevano le rappresentazioni iniettate attraverso due meccanismi distinti: un'inferenza basata sull'anomalia del prompt e un accesso diretto agli stati interni che, sebbene rilevi l'anomalia in modo agnostico rispetto al contenuto, non permette di identificare con precisione il significato semantico senza un significativo aumento dei token.

Harvey Lederman, Kyle Mahowald2026-03-06🤖 cs.AI

Distributed Partial Information Puzzles: Examining Common Ground Construction Under Epistemic Asymmetry

Questo articolo introduce il Distributed Partial Information Puzzle (DPIP), un nuovo dataset multimodale per studiare la costruzione di terreno comune in condizioni di asimmetria epistemica, e dimostra che i moderni modelli linguistici di grandi dimensioni (LLM) faticano a tracciare con precisione lo stato delle credenze e l'evoluzione del compito rispetto a un approccio basato sulla logica epistemica dinamica.

Yifan Zhu, Mariah Bradford, Kenneth Lai + 4 more2026-03-06🤖 cs.AI

FlashAttention-4: Algorithm and Kernel Pipelining Co-Design for Asymmetric Hardware Scaling

Il paper presenta FlashAttention-4, una soluzione di co-progettazione di algoritmi e kernel che ottimizza l'attenzione per le GPU Blackwell (come B200/GB200) affrontando le asimmetrie hardware attraverso nuove pipeline asincrone, tecniche software per ridurre le operazioni non matriciali e l'uso di modalità MMA avanzate, ottenendo fino a 1,3× di velocità in più rispetto a cuDNN e tempi di compilazione 20-30 volte più rapidi grazie all'implementazione in CuTe-DSL.

Ted Zadouri, Markus Hoehnerbach, Jay Shah + 3 more2026-03-06💬 cs.CL

DEBISS: a Corpus of Individual, Semi-structured and Spoken Debates

Il paper presenta DEBISS, un nuovo corpus di dibattiti parlati e individuali a struttura semi-strutturata, arricchito da annotazioni per diverse attività di elaborazione del linguaggio naturale come trascrizione, diarizzazione, estrazione di argomenti e valutazione della qualità dei dibattenti, colmando così una lacuna nella letteratura esistente.

Klaywert Danillo Ferreira de Souza, David Eduardo Pereira, Cláudio E. C. Campelo + 1 more2026-03-06💬 cs.CL

NCTB-QA: A Large-Scale Bangla Educational Question Answering Dataset and Benchmarking Performance

Il paper presenta NCTB-QA, un ampio dataset di domande e risposte in lingua bengalese estratto da libri di testo nazionali che include una significativa proporzione di domande senza risposta e distrattori, dimostrando come il fine-tuning su modelli transformer migliori drasticamente le prestazioni nella comprensione del testo per le lingue a risorse limitate.

Abrar Eyasir, Tahsin Ahmed, Muhammad Ibrahim2026-03-06💬 cs.CL