CoTJudger: A Graph-Driven Framework for Automatic Evaluation of Chain-of-Thought Efficiency and Redundancy in LRMs

Il paper introduce CoTJudger, un framework guidato da grafi che valuta l'efficienza dei Modelli di Ragionamento su larga scala convertendo le catene di pensiero in grafi di dipendenza per identificare il percorso più breve necessario, permettendo così di distinguere tra logica essenziale e ridondanza strutturale.

Siyi Li, Jiajun Shi, Shiwen Ni, Ge Zhang, Shuaimin Li, Shijian Wang, Zhoufutu Wen, Yizhi Li, Hamid Alinejad-Rokny, Jiaheng Liu, Min Yang, Wenhao HuangTue, 10 Ma💬 cs.CL

Entropy-Aware On-Policy Distillation of Language Models

Il paper propone la "Distillazione On-Policy Consapevole dell'Entropia", un metodo che combina divergenze KL inverse e dirette per gestire l'incertezza dell'insegnante, migliorando la diversità generativa e le prestazioni di ragionamento matematico nei modelli linguistici rispetto alle tecniche di distillazione tradizionali.

Woogyeol Jin, Taywon Min, Yongjin Yang, Swanand Ravindra Kadhe, Yi Zhou, Dennis Wei, Nathalie Baracaldo, Kimin LeeTue, 10 Ma🤖 cs.LG

Enhancing Consistency of Werewolf AI through Dialogue Summarization and Persona Information

Questo studio presenta un agente AI per il gioco del Lupacchiotto sviluppato per la sfida AIWolfDial 2024, che migliora la coerenza delle risposte e la coerenza del personaggio integrando riassunti del dialogo e informazioni sulla personalità all'interno di un modello linguistico di grandi dimensioni.

Yoshiki Tanaka, Takumasa Kaneko, Hiroki Onozeki, Natsumi Ezure, Ryuichi Uehara, Zhiyang Qi, Tomoya Higuchi, Ryutaro Asahara, Michimasa InabaTue, 10 Ma💬 cs.CL

Emotion Transcription in Conversation: A Benchmark for Capturing Subtle and Complex Emotional States through Natural Language

Questo lavoro introduce un nuovo compito chiamato Trascrizione Emotiva nella Conversazione (ETC) e un corrispondente dataset giapponese per superare i limiti delle annotazioni emotive tradizionali, consentendo la generazione di descrizioni linguistiche naturali che catturano sfumature emotive complesse e sottili.

Yoshiki Tanaka, Ryuichi Uehara, Koji Inoue, Michimasa InabaTue, 10 Ma💬 cs.CL

Scaling Self-Supervised Speech Models Uncovers Deep Linguistic Relationships: Evidence from the Pacific Cluster

Lo studio dimostra che scalare i modelli di linguaggio auto-supervisionati da 126 a 4.017 lingue rivela un cambiamento qualitativo non lineare che permette di catturare sia le relazioni genealogiche profonde che i contatti linguistici a lungo termine, come evidenziato dalla formazione di un robusto macro-cluster nel Pacifico basato su firme acustiche condivise.

Minu Kim, Hoirin Kim, David R. MortensenTue, 10 Ma💬 cs.CL

How Much Noise Can BERT Handle? Insights from Multilingual Sentence Difficulty Detection

Questo studio valuta l'impatto delle strategie di denoising sui modelli BERT per il rilevamento della difficoltà delle frasi in contesti multilingue, rivelando che sebbene i modelli pre-addestrati siano intrinsecamente robusti, la filtrazione dei dati rumorosi (in particolare tramite GMM) migliora significativamente le prestazioni su dataset più piccoli, portando alla creazione e al rilascio del più grande corpus multilingue per questa attività.

Nouran Khallaf, Serge SharoffTue, 10 Ma💬 cs.CL

Position: LLMs Must Use Functor-Based and RAG-Driven Bias Mitigation for Fairness

Questo documento di posizione sostiene che la mitigazione dei pregiudizi nei grandi modelli linguistici richieda un approccio duale che integri trasformazioni matematiche basate sulla teoria delle categorie (functor) per preservare l'integrità semantica e la generazione aumentata dal recupero (RAG) per iniettare conoscenze esterne diversificate, garantendo così risultati equi e privi di stereotipi.

Ravi Ranjan, Utkarsh Grover, Agorista PolyzouTue, 10 Ma💬 cs.CL

Domain-Specific Quality Estimation for Machine Translation in Low-Resource Scenarios

Questo studio presenta un approccio di stima della qualità per la traduzione automatica dall'inglese alle lingue indiane in scenari a risorse limitate, dimostrando che l'adattamento degli strati intermedi tramite tecniche come ALOPE e LoRMA supera i limiti dei metodi basati esclusivamente sul prompting, specialmente nei domini ad alto rischio.

Namrata Patil Gurav, Akashdeep Ranu, Archchana Sindhujan, Diptesh KanojiaTue, 10 Ma🤖 cs.LG

Can Large Language Models Keep Up? Benchmarking Online Adaptation to Continual Knowledge Streams

Il paper presenta OAKS, un nuovo benchmark per valutare la capacità dei modelli linguistici di adattarsi in tempo reale a flussi di conoscenza in continua evoluzione, rivelando che le attuali metodologie, inclusi i sistemi di memoria agenziali, mostrano limitazioni significative nel tracciamento accurato delle informazioni dinamiche.

Jiyeon Kim, Hyunji Lee, Dylan Zhou, Sue Hyun Park, Seunghyun Yoon, Trung Bui, Franck Dernoncourt, Sungmin Cha, Minjoon SeoTue, 10 Ma💬 cs.CL

Generalization in Online Reinforcement Learning for Mobile Agents

Questo lavoro presenta AndroidWorld-Generalization, un benchmark e un sistema di apprendimento per rinforzo basato su GRPO, per valutare e migliorare la capacità di generalizzazione zero-shot degli agenti mobili VLM su istanze, template e applicazioni non visti, dimostrando significativi guadagni sulle istanze ma sfide persistenti su template e app, con il rilascio completo del codice per la riproducibilità.

Li Gu, Zihuan Jiang, Zhixiang Chi, Huan Liu, Ziqiang Wang, Yuanhao Yu, Glen Berseth, Yang WangTue, 10 Ma🤖 cs.LG