Emotion Collider: Dual Hyperbolic Mirror Manifolds for Sentiment Recovery via Anti Emotion Reflection

O artigo apresenta o Emotion Collider (EC-Net), uma estrutura baseada em hipergrafos e embeddings no espaço hiperbólico que utiliza aprendizado contrastivo e fusão bidirecional para gerar representações de emoção robustas e semanticamente coerentes, demonstrando alta eficácia em benchmarks multimodais mesmo na presença de ruído ou dados parciais.

Rong Fu, Ziming Wang, Shuo Yin, Haiyun Wei, Kun Liu, Xianda Li, Zeli Su, Simon FongTue, 10 Ma🤖 cs.LG

Condition-Gated Reasoning for Context-Dependent Biomedical Question Answering

Este artigo apresenta o CondMedQA, o primeiro benchmark para perguntas e respostas biomédicas condicionais, e propõe o framework Condition-Gated Reasoning (CGR), que utiliza grafos de conhecimento conscientes de condições para melhorar a precisão do raciocínio médico ao adaptar as respostas às características específicas dos pacientes.

Jash Rajesh Parekh, Wonbin Kweon, Joey Chan, Rezarta Islamaj, Robert Leaman, Pengcheng Jiang, Chih-Hsuan Wei, Zhizheng Wang, Zhiyong Lu, Jiawei HanTue, 10 Ma💬 cs.CL

MrBERT: Modern Multilingual Encoders via Vocabulary, Domain, and Dimensional Adaptation

O artigo apresenta o MrBERT, uma família de codificadores multilingues modernos e eficientes, otimizados para desempenho de ponta em tarefas específicas de catalão e espanhol, bem como em domínios especializados como biomedicina e direito, com suporte a tamanhos de vetor flexíveis para reduzir custos de inferência.

Daniel Tamayo, Iñaki Lacunza, Paula Rivera-Hidalgo, Severino Da Dalt, Javier Aula-Blasco, Aitor Gonzalez-Agirre, Marta VillegasTue, 10 Ma🤖 cs.LG

KVSlimmer: Theoretical Insights and Practical Optimizations for Asymmetric KV Merging

O artigo apresenta o KVSlimmer, um método que estabelece um fundamento teórico para a assimetria do cache KV e propõe uma solução de otimização sem gradiente, eficiente em memória e tempo, que supera os métodos atuais ao reduzir custos computacionais e latência enquanto melhora o desempenho em tarefas de longo contexto.

Lianjun Liu, Hongli An, Weiqi Yan, Xin Du, Shengchuan Zhang, Huazhong Liu, Yunshan ZhongTue, 10 Ma💬 cs.CL

No Memorization, No Detection: Output Distribution-Based Contamination Detection in Small Language Models

O artigo demonstra que, para modelos de linguagem pequenos, o método de detecção de contaminação baseado na distribuição de saída (CDD) é ineficaz e supera em desempenho métodos baseados em probabilidade, como perplexidade e Min-k% Prob, pois sua eficácia depende criticamente da memorização verbatim que raramente ocorre nesses modelos.

Omer Sela (Tel Aviv University)Tue, 10 Ma💬 cs.CL

ARC-AGI-2 Technical Report

Este relatório técnico apresenta um sistema baseado em transformadores que avança o desempenho no ARC-AGI ao combinar inferência neural com priores sensíveis à estrutura e adaptação online, utilizando codificação compacta de tarefas, aumento de dados baseado em simetrias, treinamento no momento do teste (TTT) com LoRA e um pipeline de pontuação para alcançar generalização próxima ao nível humano.

Wallyson Lemes de Oliveira, Mekhron Bobokhonov, Matteo Caorsi, Aldo Podestà, Gabriele Beltramo, Luca Crosato, Matteo Bonotto, Federica Cecchetto, Hadrien Espic, Dan Titus Salajan, Stefan Taga, Luca Pana, Joe CarthyTue, 10 Ma💬 cs.CL

How Attention Sinks Emerge in Large Language Models: An Interpretability Perspective

Este artigo investiga a origem dos "sumidouros de atenção" em Grandes Modelos de Linguagem, identificando um mecanismo específico chamado "P0 Sink Circuit" que permite a modelos reconhecerem o primeiro token sem informação semântica, surgindo precocemente no treinamento e concentrando-se nas primeiras camadas, o que pode servir como indicador de convergência.

Runyu Peng, Ruixiao Li, Mingshu Chen, Yunhua Zhou, Qipeng Guo, Xipeng QiuTue, 10 Ma🤖 cs.LG

Hierarchical Latent Structures in Data Generation Process Unify Mechanistic Phenomena across Scale

Este trabalho demonstra que estruturas latentes hierárquicas no processo de geração de dados unificam a explicação do surgimento de fenômenos mecanísticos distintos em modelos de linguagem, utilizando corpora sintéticos gerados por gramáticas livres de contexto probabilísticas para investigar e validar essas descobertas tanto em dados sintéticos quanto em modelos reais.

Jonas Rohweder, Subhabrata Dutta, Iryna GurevychTue, 10 Ma🤖 cs.LG

A Coin Flip for Safety: LLM Judges Fail to Reliably Measure Adversarial Robustness

Este artigo demonstra que os atuais juízes baseados em LLM falham em medir de forma confiável a robustez adversarial devido a deslocamentos de distribuição que degradam seu desempenho a níveis próximos do acaso, revelando que muitas "vitórias" de ataques exploram essas insuficiências em vez de gerar conteúdo genuinamente prejudicial, e propõe novos benchmarks para avaliação mais precisa.

Leo Schwinn, Moritz Ladenburger, Tim Beyer, Mehrnaz Mofakhami, Gauthier Gidel, Stephan GünnemannTue, 10 Ma💬 cs.CL

Know When You're Wrong: Aligning Confidence with Correctness for LLM Error Detection

O artigo apresenta um método de pontuação de confiança normalizada para detectar erros e alucinações em modelos de linguagem, demonstrando que o ajuste fino supervisionado (SFT) melhora a calibração da confiança enquanto métodos de aprendizado por reforço a prejudicam, propondo uma solução de pós-ajuste para restaurar a confiabilidade e otimizar sistemas de geração aumentada por recuperação (RAG).

Xie Xiaohu, Liu Xiaohu, Yao BenjaminTue, 10 Ma🤖 cs.LG

GraphSkill: Documentation-Guided Hierarchical Retrieval-Augmented Coding for Complex Graph Reasoning

O artigo apresenta o GraphSkill, um framework de codificação com recuperação aumentada hierárquica guiada por documentação e agente de autodepuração, que supera as limitações de métodos existentes ao explorar a estrutura hierárquica de documentos técnicos e corrigir erros lógicos, validado por meio de um novo dataset e experimentos que demonstram maior precisão e menor custo de inferência em raciocínio complexo sobre grafos.

Fali Wang, Chenglin Weng, Xianren Zhang, Siyuan Hong, Hui Liu, Suhang WangTue, 10 Ma🤖 cs.LG

SR-TTT: Surprisal-Aware Residual Test-Time Training

O artigo apresenta o SR-TTT, uma abordagem que resolve as falhas de recuperação de modelos de linguagem com Treinamento em Tempo de Teste (TTT) ao integrar um mecanismo de memória residual esparsa e controlada por perda, que roteia dinamicamente apenas tokens altamente surpreendentes para um cache de atenção exata, preservando assim a eficiência de memória O(1) para o contexto geral enquanto garante a retenção precisa de informações críticas.

Swamynathan V PTue, 10 Ma🤖 cs.LG