Noise-Conditioned Mixture-of-Experts Framework for Robust Speaker Verification

Este artigo apresenta um framework robusto de verificação de locutor baseado em uma mistura de especialistas condicionada ao ruído, que utiliza roteamento inteligente, especialização universal e aprendizado curricular para decompor o espaço de características em subespaços especializados, superando consistentemente os métodos convencionais em condições diversas de ruído.

Bin Gu, Haitao Zhao, Jibo WeiWed, 11 Ma⚡ eess

MEGC2026: Micro-Expression Grand Challenge on Visual Question Answering

O artigo apresenta o Desafio Grandioso de Microexpressões de 2026 (MEGC2026), que introduz duas novas tarefas de Resposta a Perguntas Visuais (VQA) para vídeos de microexpressões — uma para sequências curtas e outra para vídeos longos — visando explorar as capacidades de raciocínio multimodal de modelos de linguagem e visão avançados na análise de emoções sutis.

Xinqi Fan, Jingting Li, John See, Moi Hoon Yap, Su-Jing Wang, Adrian K. DavisonWed, 11 Ma💻 cs

VoxEmo: Benchmarking Speech Emotion Recognition with Speech LLMs

O artigo apresenta o VoxEmo, um benchmark abrangente para avaliar Modelos de Linguagem de Áudio em Reconhecimento de Emoções, oferecendo um toolkit padronizado e protocolos de avaliação que capturam a ambiguidade inerente às emoções humanas e demonstram que, embora os modelos zero-shot tenham menor precisão em rótulos rígidos, eles se alinham melhor com as distribuições subjetivas humanas.

Hezhao Zhang, Huang-Cheng Chou, Shrikanth Narayanan, Thomas HainWed, 11 Ma🤖 cs.AI

MORE-R1: Guiding LVLM for Multimodal Object-Entity Relation Extraction via Stepwise Reasoning with Reinforcement Learning

O artigo apresenta o MORE-R1, um modelo inovador que aprimora a extração de relações entre objetos visuais e entidades textuais em Grandes Modelos de Linguagem e Visão (LVLMs) ao integrar um processo de raciocínio passo a passo otimizado por Aprendizado por Reforço, alcançando desempenho superior ao estado da arte no benchmark MORE.

Xiang Yuan, Xu Chu, Xinrong Chen, Haochen Li, Zonghong Dai, Hongcheng Fan, Xiaoyue Yuan, Weiping Li, Tong MoWed, 11 Ma💻 cs

Dynamic Multimodal Expression Generation for LLM-Driven Pedagogical Agents: From User Experience Perspective

Este estudo propõe e valida um método baseado em modelos de linguagem grandes (LLMs) para gerar expressões multimodais dinâmicas e semanticamente alinhadas em agentes pedagógicos de realidade virtual, demonstrando que tal abordagem melhora significativamente a eficácia percebida, o engajamento e a presença social dos aprendizes, ao mesmo tempo que reduz o cansaço e o tédio.

Ninghao Wan, Jiarun Song, Fuzheng YangWed, 11 Ma💻 cs

Multi-Domain Audio Question Answering Benchmark Toward Acoustic Content Reasoning

Este artigo apresenta a Tarefa 5 do Desafio DCASE 2025, um benchmark de Resposta a Perguntas sobre Áudio (AQA) que abrange múltiplos domínios acústicos para avaliar e avançar as capacidades de raciocínio de modelos de linguagem-audio em direção à acuidade humana.

Chao-Han Huck Yang, Sreyan Ghosh, Qing Wang, Jaeyeon Kim, Hengyi Hong, Sonal Kumar, Guirui Zhong, Zhifeng Kong, S Sakshi, Vaibhavi Lokegaonkar, Oriol Nieto, Ramani Duraiswami, Dinesh Manocha, Gunhee Kim, Jun Du, Rafael Valle, Bryan CatanzaroTue, 10 Ma💬 cs.CL

Emotion Collider: Dual Hyperbolic Mirror Manifolds for Sentiment Recovery via Anti Emotion Reflection

O artigo apresenta o Emotion Collider (EC-Net), uma estrutura baseada em hipergrafos e embeddings no espaço hiperbólico que utiliza aprendizado contrastivo e fusão bidirecional para gerar representações de emoção robustas e semanticamente coerentes, demonstrando alta eficácia em benchmarks multimodais mesmo na presença de ruído ou dados parciais.

Rong Fu, Ziming Wang, Shuo Yin, Haiyun Wei, Kun Liu, Xianda Li, Zeli Su, Simon FongTue, 10 Ma🤖 cs.LG

TimeSpot: Benchmarking Geo-Temporal Understanding in Vision-Language Models in Real-World Settings

O artigo apresenta o TimeSpot, um novo benchmark com 1.455 imagens reais de 80 países para avaliar a capacidade de modelos de visão e linguagem de inferir atributos geográficos e temporais, revelando que os modelos atuais têm desempenho insuficiente nessa tarefa e destacando a necessidade de novos métodos para um entendimento geo-temporal robusto.

Azmine Toushik Wasi, Shahriyar Zaman Ridoy, Koushik Ahamed Tonmoy, Kinga Tshering, S. M. Muhtasimul Hasan, Wahid Faisal, Tasnim Mohiuddin, Md Rizwan ParvezTue, 10 Ma💬 cs.CL

CONSTANT: Towards High-Quality One-Shot Handwriting Generation with Patch Contrastive Enhancement and Style-Aware Quantization

O artigo apresenta o CONSTANT, um modelo de difusão inovador para geração de escrita manuscrita em uma única amostra que utiliza Quantização Consciente de Estilo e Aprendizado Contrastivo de Patch para superar as limitações existentes na captura de características complexas e diversas da caligrafia humana.

Anh-Duy Le, Van-Linh Pham, Thanh-Nam Vo, Xuan Toan Mai, Tuan-Anh TranTue, 10 Ma💻 cs

Controllable Complex Human Motion Video Generation via Text-to-Skeleton Cascades

Este artigo apresenta um framework em cascata de dois estágios que gera vídeos complexos de movimentos humanos a partir de descrições textuais, combinando um modelo autoregressivo texto-para-esqueleto para criar sequências de poses e um modelo de difusão vídeo-para-poses com codificador de referência adaptativo, apoiado por um novo conjunto de dados sintético para superar as limitações atuais no controle temporal e na preservação de aparência.

Ashkan Taghipour, Morteza Ghahremani, Zinuo Li, Hamid Laga, Farid Boussaid, Mohammed BennamounTue, 10 Ma💻 cs