DuplexCascade: Full-Duplex Speech-to-Speech Dialogue with VAD-Free Cascaded ASR-LLM-TTS Pipeline and Micro-Turn Optimization

이 논문은 VAD(음성 활동 감지) 없이 스트리밍 파이프라인을 구축하고 말뭉치 단위를 '마이크로 턴'으로 변환하며 대화 제어 토큰을 도입함으로써, 강력한 LLM 지능을 유지하면서도 자연스러운 전체이중 (Full-Duplex) 음성 대화를 실현하는 'DuplexCascade'를 제안합니다.

Jianing Yang, Yusuke Fujita, Yui SudoWed, 11 Ma🤖 cs.AI

Emotion is Not Just a Label: Latent Emotional Factors in LLM Processing

이 논문은 감정을 단순한 예측 대상이 아닌 LLM 의 추론과 어텐션 기하학에 영향을 미치는 잠재적 요인으로 규명하고, 이를 통제하기 위해 감정 균형 QA 데이터셋 AURA-QA 와 감정 정규화 프레임워크를 제안하여 다양한 환경에서 읽기 이해 성능을 향상시켰음을 보여줍니다.

Benjamin Reichman, Adar Avasian, Samuel Webster, Larry HeckWed, 11 Ma🤖 cs.AI

SPAR-K: Scheduled Periodic Alternating Early Exit for Spoken Language Models

이 논문은 텍스트와 음성을 교차 생성하는 대화형 음성 언어 모델의 추론 비용을 줄이기 위해, 주기적인 전체 깊이 '리프레시' 단계를 포함한 모달리티 인지형 조기 종료 프레임워크인 SPAR-K 를 제안하며, 이를 통해 음성 품질을 유지하면서 추론 깊이를 최대 11% 까지 감소시켰다고 요약할 수 있습니다.

Hsiao-Ying Huang, Cheng-Han Chiang, Hung-yi LeeWed, 11 Ma💬 cs.CL

LooComp: Leverage Leave-One-Out Strategy to Encoder-only Transformer for Efficient Query-aware Context Compression

이 논문은 질문 응답의 정확성과 확장성을 높이기 위해, 문장을 제거했을 때의 단서 풍부도 변화를 측정하는 마진 기반 전략을 사용하여 경량 인코더 전용 트랜스포머를 통해 효율적이고 정밀한 컨텍스트 압축을 달성하는 'LooComp' 프레임워크를 제안합니다.

Thao Do, Dinh Phu Tran, An Vo, Seon Kwon Kim, Daeyoung KimWed, 11 Ma💬 cs.CL

TA-Mem: Tool-Augmented Autonomous Memory Retrieval for LLM in Long-Term Conversational QA

이 논문은 LLM 의 컨텍스트 윈도우 제한을 극복하기 위해 의미적 상관관계에 따른 적응형 메모리 추출, 다중 인덱스 메모리 데이터베이스, 그리고 사용자 입력에 기반한 자율적 도구 선택을 통해 장기 대화형 QA 성능을 향상시킨 'TA-Mem' 프레임워크를 제안합니다.

Mengwei Yuan, Jianan Liu, Jing Yang, Xianyou Li, Weiran Yan, Yichao Wu, Penghao LiangWed, 11 Ma💬 cs.CL

Reward Prediction with Factorized World States

이 논문은 언어 모델을 활용하여 비구조화된 관측을 계층적 객체 - 속성 구조로 변환하는 'StateFactory'를 제안함으로써, 훈련 데이터의 편향 없이 다양한 도메인에서 목표 상태와의 의미적 유사성을 기반으로 한 정확한 보상 예측과 향상된 에이전트 계획 성능을 달성함을 보여줍니다.

Yijun Shen, Delong Chen, Xianming Hu, Jiaming Mi, Hongbo Zhao, Kai Zhang, Pascale FungWed, 11 Ma💬 cs.CL

Investigating Gender Stereotypes in Large Language Models via Social Determinants of Health

본 논문은 프랑스어 환자 기록을 분석하여 대규모 언어 모델이 성별과 다른 사회적 건강 결정 요인 간의 상호작용을 통해 내재된 성 고정관념을 활용하여 성별 관련 결정을 내린다는 사실을 규명함으로써, 기존 편향 평가 방법의 한계를 보완할 수 있는 새로운 접근을 제시합니다.

Trung Hieu Ngo, Adrien Bazoge, Solen Quiniou, Pierre-Antoine Gourraud, Emmanuel MorinWed, 11 Ma🤖 cs.AI

CyberThreat-Eval: Can Large Language Models Automate Real-World Threat Research?

이 논문은 기존 벤치마크의 한계를 극복하고 실제 사이버 위협 인텔리전스 (CTI) 분석가의 3 단계 워크플로우를 반영한 새로운 평가 프레임워크인 CyberThreat-Eval 을 제안하며, 이를 통해 현재 대규모 언어 모델 (LLM) 이 복잡한 위협 연구 자동화에서 겪는 사실성 및 전문성 부족 문제를 규명했습니다.

Xiangsen Chen, Xuan Feng, Shuo Chen, Matthieu Maitre, Sudipto Rakshit, Diana Duvieilh, Ashley Picone, Nan TangWed, 11 Ma💬 cs.CL

You Didn't Have to Say It like That: Subliminal Learning from Faithful Paraphrases

이 논문은 언어 모델이 의미적 무관성이나 명시적 반대 내용에도 불구하고, 교차 모델이 생성한 충실한 의역 데이터를 통해 특정 동물에 대한 선호도 같은 행동 특성을 은밀하게 학습할 수 있음을 보여주어, 콘텐츠 기반 검사만으로는 이러한 전파를 탐지하거나 차단하기 어렵다는 위험을 제기합니다.

Isaia Gisler (ETH Zürich), Zhonghao He (University of Cambridge), Tianyi Qiu (Peking University)Wed, 11 Ma🤖 cs.LG

Enhancing Debunking Effectiveness through LLM-based Personality Adaptation

이 논문은 빅 5 성격 특성에 기반한 프롬프트를 통해 대형 언어 모델 (LLM) 이 가짜 뉴스에 대한 맞춤형 debunking 메시지를 생성하고, 또 다른 LLM 을 자동 평가자로 활용해 일반적 메시지보다 설득력이 높음을 입증하는 동시에 윤리적 문제도 제기합니다.

Pietro Dell'Oglio, Alessandro Bondielli, Francesco Marcelloni, Lucia C. PassaroWed, 11 Ma🤖 cs.AI

ALARM: Audio-Language Alignment for Reasoning Models

이 논문은 추론 언어 모델 (RLM) 의 체인 오브 씽킹 (Chain-of-Thought) 특성을 고려한 '자기 재표현 (self-rephrasing)' 기법과 다중 오디오 인코더 융합을 통해, 600 만 개의 멀티태스크 데이터로 학습된 40 억 파라미터 규모의 오디오 - 언어 정렬 모델 (ALM) 을 제안하며, 이는 오픈소스 모델 중 MMAU-speech 및 MMSU 벤치마크에서 최상위 성능을 기록했다고 요약할 수 있습니다.

Petr Grinberg, Hassan ShahmohammadiWed, 11 Ma💬 cs.CL