Image Captioning via Compact Bidirectional Architecture

Questo paper introduce un modello Transformer bidirezionale compatto per la descrizione di immagini che, integrando flussi di generazione da sinistra a destra e viceversa in un'unica architettura eseguita in parallelo e sfruttando tecniche di ensemble, supera i limiti dei modelli unidirezionali e raggiunge risultati all'avanguardia senza pre-addestramento visione-linguaggio.

Zijie Song, Yuanen Zhou, Zhenzhen Hu, Daqing Liu, Huixia Ben, Richang Hong, Meng WangWed, 11 Ma💬 cs.CL

Robust Training of Neural Networks at Arbitrary Precision and Sparsity

Questo paper introduce un quadro unificato che modella la quantizzazione e la sparsificazione come rumore additivo, proponendo una trasformata di dequantizzazione basata sulla regressione ridge per fornire un percorso di gradiente ben definito che permette l'addestramento stabile di reti neurali ad alta efficienza con precisione arbitraria e livelli di sparsità estremi, superando i limiti degli approcci esistenti come lo Straight-Through Estimator.

Chengxi Ye, Grace Chu, Yanfeng Liu, Yichi Zhang, Lukasz Lew, Li Zhang, Mark Sandler, Andrew HowardWed, 11 Ma🤖 cs.AI

GateLens: A Reasoning-Enhanced LLM Agent for Automotive Software Release Analytics

Il paper introduce GateLens, un agente LLM che utilizza l'Algebra Relazionale come rappresentazione intermedia formale per garantire analisi rapide, trasparenti e affidabili di dati tabulari complessi nel settore automobilistico, superando i limiti dei sistemi basati su Chain-of-Thought e riducendo i tempi di analisi dell'80% senza necessità di esempi few-shot.

Arsham Gholamzadeh Khoee, Shuai Wang, Robert Feldt, Dhasarathy Parthasarathy, Yinan YuWed, 11 Ma🤖 cs.AI

Stepwise Guided Policy Optimization: Coloring your Incorrect Reasoning in GRPO

Il paper introduce SGPO, un framework che risolve il limite di GRPO di non aggiornare la politica quando tutti i campioni di un gruppo sono errati, migliorando l'apprendimento per rinforzo nei modelli linguistici attraverso una diversificazione guidata da un modello giudice passo-passo che permette di apprendere anche dagli errori senza richiedere soluzioni corrette.

Peter Chen, Xiaopeng Li, Ziniu Li, Xi Chen, Tianyi LinWed, 11 Ma🤖 cs.AI

Let's Verify Math Questions Step by Step

Il paper presenta MathQ-Verify, una pipeline innovativa a cinque stadi che verifica rigorosamente la validità e la completezza delle domande matematiche per filtrare problemi mal posti, migliorando significativamente le prestazioni rispetto ai metodi di verifica diretti e facilitando la creazione di dataset matematici affidabili.

Chengyu Shen, Zhen Hao Wong, Runming He, Hao Liang, Meiyi Qiang, Zimo Meng, Zhengyang Zhao, Bohan Zeng, Zhengzhou Zhu, Bin Cui, Wentao ZhangWed, 11 Ma🤖 cs.AI

UltraEdit: Training-, Subject-, and Memory-Free Lifelong Editing in Language Models

Il paper presenta UltraEdit, un metodo innovativo per l'editing continuo dei modelli linguistici che, eliminando la necessità di addestramento, soggetti specifici o memoria esterna, raggiunge velocità e efficienza superiori rispetto agli stati dell'arte, permettendo di eseguire fino a 2 milioni di modifiche su modelli da 7B con risorse hardware limitate.

Xiaojie Gu, Ziying Huang, Jia-Chen Gu, Kai ZhangWed, 11 Ma🤖 cs.AI

OPENXRD: A Comprehensive Benchmark Framework for LLM/MLLM XRD Question Answering

Il paper introduce OPENXRD, un quadro di riferimento completo per valutare le capacità di assimilazione del contesto e di ragionamento dei modelli linguistici e multimodali nella domanda e risposta su diffrazione dei raggi X, evidenziando come materiali esperti di alta qualità e dimensioni moderate dei modelli ottimizzino le prestazioni scientifiche.

Ali Vosoughi, Ayoub Shahnazari, Yufeng Xi, Zeliang Zhang, Griffin Hess, Chenliang Xu, Niaz AbdolrahimWed, 11 Ma🤖 cs.AI

TaoSR1: The Thinking Model for E-commerce Relevance Search

Il paper presenta TaoSR1, un framework che adatta i Large Language Models per la ricerca di rilevanza nell'e-commerce attraverso un processo in tre fasi di addestramento con Chain-of-Thought e ottimizzazione delle preferenze, risolvendo problemi di allucinazione e fattibilità di deployment per ottenere prestazioni superiori rispetto ai modelli basati su BERT.

Chenhe Dong, Shaowei Yao, Pengkun Jiao, Jianhui Yang, Yiming Jin, Zerui Huang, Xiaojiang Zhou, Dan Ou, Haihong Tang, Bo ZhengWed, 11 Ma🤖 cs.AI

AgentCoMa: A Compositional Benchmark Mixing Commonsense and Mathematical Reasoning in Real-World Scenarios

Il paper introduce AgentCoMa, un nuovo benchmark che valuta la capacità dei modelli linguistici di combinare ragionamento di senso comune e matematico, rivelando che, a differenza degli esseri umani, gli LLM subiscono un drastico calo di prestazioni quando devono integrare questi due tipi di ragionamento, evidenziando una significativa fragilità nei compiti compositi misti.

Lisa Alazraki, Lihu Chen, Ana Brassard, Joe Stacey, Hossein A. Rahmani, Marek ReiWed, 11 Ma💬 cs.CL

SimpleQA Verified: A Reliable Factuality Benchmark to Measure Parametric Knowledge

Il paper introduce SimpleQA Verified, un nuovo benchmark di 1.000 prompt che risolve le limitazioni del benchmark originale di OpenAI attraverso un rigoroso processo di filtraggio, fornendo uno strumento più affidabile per valutare la fattualità dei modelli linguistici e dimostrando che Gemini 2.5 Pro raggiunge lo stato dell'arte con un punteggio F1 di 55,6.

Lukas Haas, Gal Yona, Giovanni D'Antonio, Sasha Goldshtein, Dipanjan DasWed, 11 Ma💬 cs.CL

VSSFlow: Unifying Video-conditioned Sound and Speech Generation via Joint Learning

Il paper presenta VSSFlow, un framework unificato basato sul flusso di matching che risolve congiuntamente la generazione di suoni e parlato condizionata dal video, superando le prestazioni dei modelli specifici per dominio grazie a un meccanismo di aggregazione delle condizioni disaccoppiato e all'apprendimento congiunto.

Xin Cheng, Yuyue Wang, Xihua Wang, Yihan Wu, Kaisi Guan, Yijing Chen, Peng Zhang, Xiaojiang Liu, Meng Cao, Ruihua SongWed, 11 Ma🤖 cs.AI