RexDrug: Reliable Multi-Drug Combination Extraction through Reasoning-Enhanced LLMs

Il paper presenta RexDrug, un framework basato su modelli linguistici di grandi dimensioni potenziati dal ragionamento che, attraverso una strategia di addestramento a due stadi con agenti multipli e apprendimento per rinforzo, supera gli attuali limiti nell'estrazione automatica di combinazioni di farmaci n-ari dalla letteratura biomedica.

Zhijun Wang, Ling Luo, Dinghao Pan, Huan Zhuang, Lejing Yu, Yuanyuan Sun, Hongfei Lin2026-03-10💬 cs.CL

Is continuous CoT better suited for multi-lingual reasoning?

Lo studio dimostra che il ragionamento in uno spazio latente continuo supera il Chain-of-Thought esplicito, specialmente per le lingue a risorse limitate e in contesti zero-shot, offrendo al contempo una compressione dei passaggi di ragionamento fino a 50 volte più efficiente grazie alla maggiore invarianza linguistica delle rappresentazioni latenti.

Ali Hamza Bashir, Behzad Shomali, Markus Frey, Mehdi Ali, Rafet Sifa, David Berghaus2026-03-10🤖 cs.LG

TildeOpen LLM: Leveraging Curriculum Learning to Achieve Equitable Language Representation

Il documento presenta TildeOpen LLM, un modello fondazionale open-weight da 30 miliardi di parametri ottimizzato per 34 lingue europee attraverso tecniche di apprendimento curricolare e bilanciamento dei dati, che dimostra prestazioni superiori rispetto ai modelli esistenti, in particolare per le lingue baltiche, finoro-ugriche e slave, con una significativa riduzione degli errori linguistici.

Toms Bergmanis, Martins Kronis, Ingus J\=anis Pretkalninš, D\=avis Nicmanis, Jelizaveta Jelinska, Roberts Rozis, Rinalds V\=iksna, M\=arcis Pinnis2026-03-10💬 cs.CL

The Conundrum of Trustworthy Research on Attacking Personally Identifiable Information Removal Techniques

Il paper sostiene che le attuali valutazioni degli attacchi di ricostruzione contro le tecniche di rimozione dei dati personali (PII) siano inaffidabili a causa di perdite e contaminazioni dei dati, e che la necessità di accedere a dati privati per una valutazione oggettiva impedisca alla comunità di ricerca di affrontare il problema in modo trasparente e riproducibile.

Sebastian Ochs, Ivan Habernal2026-03-10💬 cs.CL

Quantifying Cross-Lingual Transfer in Paralinguistic Speech Tasks

Questo studio introduce la Matrice di Transfer Cross-Lingual (CLTM), un metodo sistematico per quantificare le interazioni cross-linguistiche in compiti paralinguistici come l'identificazione del genere e la verifica del parlante, rivelando attraverso l'uso di un encoder multilingue basato su HuBERT che l'efficacia del transfer dipende in modo sistematico sia dal compito specifico che dalle lingue coinvolte.

Pol Buitrago, Oriol Pareras, Federico Costa, Javier Hernando2026-03-10💬 cs.CL

Bootstrapping Audiovisual Speech Recognition in Zero-AV-Resource Scenarios with Synthetic Visual Data

Il paper propone un framework di riconoscimento del parlato audiovisivo (AVSR) per scenari privi di risorse, che utilizza stream visivi sintetici generati tramite sincronizzazione labiale su immagini statiche per addestrare modelli su lingue come il catalano, ottenendo prestazioni vicine allo stato dell'arte e superiori ai baselines audio-only.

Pol Buitrago, Pol Gàlvez, Oriol Pareras, Javier Hernando2026-03-10💬 cs.CL

Not All Queries Need Deep Thought: CoFiCot for Adaptive Coarse-to-fine Stateful Refinement

Il paper presenta CoFiCot, un framework adattivo che ottimizza l'uso delle risorse computazionali durante l'inferenza dei LLM classificando dinamicamente la difficoltà delle query per applicare strategie di raffinamento differenziate e stateful, risolvendo così il paradosso dell'allocazione uniforme delle risorse.

Dongxu Zhang, Hongqiang Lin, Yiding Sun, Pengyu Wang, Qirui Wang, Ning Yang, Jihua Zhu2026-03-10💬 cs.CL

How Much Do LLMs Hallucinate in Document Q&A Scenarios? A 172-Billion-Token Study Across Temperatures, Context Lengths, and Hardware Platforms

Questo studio su larga scala, condotto su 172 miliardi di token con il metodo RIKER, rivela che i modelli linguistici mostrano tassi di allucinazione non trascurabili che aumentano drasticamente con la lunghezza del contesto, mentre la scelta del modello è il fattore dominante rispetto a temperatura, dimensioni o piattaforma hardware.

JV Roig2026-03-10💬 cs.CL

AdaCultureSafe: Adaptive Cultural Safety Grounded by Cultural Knowledge in Large Language Models

Il paper propone AdaCultureSafe, un nuovo framework e dataset che integra conoscenze culturali specifiche per migliorare la sicurezza culturale dei modelli linguistici, rivelando che la sicurezza non deriva automaticamente dalla conoscenza e presentando un metodo per fondere attivamente i due aspetti nella generazione delle risposte.

Hankun Kang, Di Lin, Zhirong Liao, Pengfei Bai, Xinyi Zeng, Jiawei Jiang, Yuanyuan Zhu, Tieyun Qian2026-03-10💬 cs.CL

Evaluating LLM-Based Grant Proposal Review via Structured Perturbations

Questo studio valuta l'efficacia delle revisioni di proposte di sovvenzione basate su LLM attraverso perturbazioni strutturate, rivelando che l'approccio sezione per sezione supera le alternative ma che i sistemi attuali mostrano variabilità e priorità di valutazione disallineate, risultando più adatti al controllo di conformità che alla valutazione olistica.

William Thorne, Joseph James, Yang Wang, Chenghua Lin, Diana Maynard2026-03-10💬 cs.CL

Using Multimodal and Language-Agnostic Sentence Embeddings for Abstractive Summarization

Il paper presenta SBARThez, un nuovo framework che combina embedding di frasi multimodali e multilingue con un meccanismo di iniezione di entità nominate in un modello BART modificato per produrre riassunti astrattivi più concisi, fedeli ai fatti e capaci di gestire input testuali o vocali anche per lingue a risorse limitate.

Chaimae Chellaf, Salima Mdhaffar, Yannick Estève, Stéphane Huet2026-03-10💬 cs.CL

SPD-RAG: Sub-Agent Per Document Retrieval-Augmented Generation

Il paper introduce SPD-RAG, un framework gerarchico multi-agente che migliora la qualità e la scalabilità della risposta a domande complesse su documenti multipli delegando l'elaborazione a agenti dedicati per documento e sintetizzando i risultati tramite un coordinatore, ottenendo prestazioni superiori rispetto ai metodi RAG tradizionali con costi API ridotti.

Yagiz Can Akay, Muhammed Yusuf Kartal, Esra Alparslan, Faruk Ortakoyluoglu, Arda Akpinar2026-03-10💬 cs.CL