DuplexCascade: Full-Duplex Speech-to-Speech Dialogue with VAD-Free Cascaded ASR-LLM-TTS Pipeline and Micro-Turn Optimization

DuplexCascade is een VAD-vrije, gestreamde spraak-naar-spraak pipeline die volledige duplex-interactie mogelijk maakt door conventionele lange wisselgesprekken om te zetten in micro-turns met behulp van speciale controletokens, waardoor de intelligentie van een tekst-LLM behouden blijft terwijl de onderbrekingsproblemen van traditionele systemen worden opgelost.

Jianing Yang, Yusuke Fujita, Yui SudoWed, 11 Ma🤖 cs.AI

LooComp: Leverage Leave-One-Out Strategy to Encoder-only Transformer for Efficient Query-aware Context Compression

LooComp is een efficiënte, query-gerichte contextcompressiemethode die een encoder-only Transformer en een 'leave-one-out'-strategie gebruikt om zinnen te selecteren die cruciaal zijn voor het beantwoorden van vragen, waardoor de doorvoersnelheid wordt verhoogd en de kosten worden verlaagd zonder in te leveren op de nauwkeurigheid.

Thao Do, Dinh Phu Tran, An Vo, Seon Kwon Kim, Daeyoung KimWed, 11 Ma💬 cs.CL

TA-Mem: Tool-Augmented Autonomous Memory Retrieval for LLM in Long-Term Conversational QA

Dit paper introduceert TA-Mem, een nieuw raamwerk voor tool-versterkte, autonome geheugenretrieval dat een LLM-agent, een multi-index geheugendatabase en een adaptieve zoekagent combineert om de beperkingen van het contextvenster bij lange conversaties te overwinnen en de prestaties op de LoCoMo-dataset significant te verbeteren.

Mengwei Yuan, Jianan Liu, Jing Yang, Xianyou Li, Weiran Yan, Yichao Wu, Penghao LiangWed, 11 Ma💬 cs.CL

LLM as a Meta-Judge: Synthetic Data for NLP Evaluation Metric Validation

Dit paper introduceert een schaalbaar framework genaamd 'LLM as a Meta-Judge' dat gebruikmaakt van synthetische data gegenereerd door taalkundige degradatie om NLP-evaluatiemetrics te valideren, waarbij hoge correlaties met menselijke beoordelingen aantonen dat deze methode een betrouwbaar en kostenefficiënt alternatief biedt voor dure menselijke annotatie.

Lukáš Eigler, Jindřich Libovický, David HurychWed, 11 Ma💬 cs.CL

CyberThreat-Eval: Can Large Language Models Automate Real-World Threat Research?

Dit paper introduceert CyberThreat-Eval, een expert-geannoteerde benchmark die is gebaseerd op de daadwerkelijke workflow van een toonaangevend bedrijf om Large Language Models te evalueren op hun vermogen om real-world cyberdreigingsinlichtingen te analyseren, waarbij wordt vastgesteld dat huidige modellen tekortschieten in nuance en feitelijke nauwkeurigheid.

Xiangsen Chen, Xuan Feng, Shuo Chen, Matthieu Maitre, Sudipto Rakshit, Diana Duvieilh, Ashley Picone, Nan TangWed, 11 Ma💬 cs.CL

Modelling the Diachronic Emergence of Phoneme Frequency Distributions

Dit artikel toont aan dat een stochastisch model van fonologische verandering, aangevuld met aannames over functionele lading en een stabiliserende voorkeur voor een bepaalde inventarisgrootte, kan verklaren hoe statistische regelmatigheden in fonemfrequentieverdelingen en het verband tussen inventarisgrootte en relatieve entropie natuurlijk ontstaan door historische geluidswijzigingen in plaats van door expliciete optimalisatie.

Fermín Moscoso del Prado Martín, Suchir SalhanWed, 11 Ma💬 cs.CL

You Didn't Have to Say It like That: Subliminal Learning from Faithful Paraphrases

Dit onderzoek toont aan dat taalmodellen via subliminale leerprocessen voorkeuren van een 'leraar'-model kunnen overnemen, zelfs wanneer ze worden getraind op semantisch trouwe parafrases die de voorkeur expliciet tegenspreken, wat wijst op een fundamenteel veiligheidsrisico in pipelines met synthetische trainingsdata.

Isaia Gisler (ETH Zürich), Zhonghao He (University of Cambridge), Tianyi Qiu (Peking University)Wed, 11 Ma🤖 cs.LG