LooComp: Leverage Leave-One-Out Strategy to Encoder-only Transformer for Efficient Query-aware Context Compression

O artigo apresenta o LooComp, um método leve baseado em uma estratégia de "leave-one-out" e em um Transformer apenas codificador que comprime contextos de forma eficiente e orientada à consulta, mantendo a precisão na resposta e reduzindo custos computacionais para tarefas de geração aumentada por recuperação.

Thao Do, Dinh Phu Tran, An Vo, Seon Kwon Kim, Daeyoung KimWed, 11 Ma💬 cs.CL

How Contrastive Decoding Enhances Large Audio Language Models?

Este estudo avalia sistematicamente quatro estratégias de Decodificação Contrastiva em Modelos de Linguagem de Áudio de Grande Escala, identificando as mais eficazes e propondo uma estrutura de Matriz de Transição para explicar como essas técnicas corrigem erros específicos, como a negação falsa de áudio ou o palpite por incerteza, fornecendo diretrizes para selecionar a melhor estratégia com base no perfil de erros do modelo.

Tzu-Quan Lin, Wei-Ping Huang, Yi-Cheng Lin, Hung-yi LeeWed, 11 Ma💬 cs.CL

TA-Mem: Tool-Augmented Autonomous Memory Retrieval for LLM in Long-Term Conversational QA

O artigo apresenta o TA-Mem, um novo quadro de recuperação de memória autônoma e aumentada por ferramentas para Grandes Modelos de Linguagem (LLMs) que supera as limitações das abordagens estáticas atuais ao permitir a extração adaptativa de informações e a seleção dinâmica de métodos de busca, resultando em melhorias significativas de desempenho em tarefas de perguntas e respostas de conversação de longo prazo.

Mengwei Yuan, Jianan Liu, Jing Yang, Xianyou Li, Weiran Yan, Yichao Wu, Penghao LiangWed, 11 Ma💬 cs.CL

TaSR-RAG: Taxonomy-guided Structured Reasoning for Retrieval-Augmented Generation

O artigo apresenta o TaSR-RAG, um framework de raciocínio estruturado guiado por taxonomia que melhora a precisão e a atribuição de evidências em sistemas de Geração Aumentada por Recuperação (RAG) ao decompor consultas complexas em sub-consultas de triplos relacionais e realizar seleção de evidências passo a passo sem a necessidade de construção de grafos dispendiosa.

Jiashuo Sun, Yixuan Xie, Jimeng Shi, Shaowen Wang, Jiawei HanWed, 11 Ma🤖 cs.AI

Investigating Gender Stereotypes in Large Language Models via Social Determinants of Health

Este estudo investiga como os Modelos de Linguagem de Grande Escala (LLMs) perpetuam estereótipos de gênero em registros de pacientes franceses ao analisar as interações entre o gênero e outros determinantes sociais da saúde, demonstrando que a avaliação dessas interações é essencial para complementar as abordagens existentes de detecção de viés.

Trung Hieu Ngo, Adrien Bazoge, Solen Quiniou, Pierre-Antoine Gourraud, Emmanuel MorinWed, 11 Ma🤖 cs.AI

Common Sense vs. Morality: The Curious Case of Narrative Focus Bias in LLMs

Este trabalho identifica uma limitação crítica em Grandes Modelos de Linguagem (LLMs), que tendem a priorizar o raciocínio moral em detrimento do senso comum, revelando um viés de foco narrativo onde a detecção de contradições de senso comum é significativamente mais difícil quando atribuída ao personagem principal em comparação com personagens secundários.

Saugata Purkayastha, Pranav Kushare, Pragya Paramita Pal, Sukannya PurkayasthaWed, 11 Ma🤖 cs.AI

CyberThreat-Eval: Can Large Language Models Automate Real-World Threat Research?

O artigo apresenta o CyberThreat-Eval, um novo benchmark baseado em fluxos de trabalho reais de inteligência de ameaças cibernéticas (CTI) e métricas centradas em analistas, que revela as limitações atuais dos Grandes Modelos de Linguagem (LLMs) na automação de tarefas complexas de pesquisa de ameaças e propõe um processo iterativo com feedback humano para superá-las.

Xiangsen Chen, Xuan Feng, Shuo Chen, Matthieu Maitre, Sudipto Rakshit, Diana Duvieilh, Ashley Picone, Nan TangWed, 11 Ma💬 cs.CL

Modelling the Diachronic Emergence of Phoneme Frequency Distributions

O artigo propõe um modelo estocástico de mudança fonológica que, ao incorporar efeitos de carga funcional e uma tendência estabilizadora para um tamanho preferencial de inventário, demonstra que as regularidades estatísticas observadas nas distribuições de frequência de fonemas podem surgir naturalmente de processos diacrônicos, sem a necessidade de mecanismos explícitos de otimização.

Fermín Moscoso del Prado Martín, Suchir SalhanWed, 11 Ma💬 cs.CL

You Didn't Have to Say It like That: Subliminal Learning from Faithful Paraphrases

O artigo demonstra que modelos de linguagem podem adquirir subliminarmente preferências comportamentais de um modelo professor ao serem treinados em paráfrases fiéis de dados semânticamente não relacionados ou até contraditórios, revelando uma vulnerabilidade crítica em pipelines de geração de dados sintéticos que não pode ser detectada apenas pela inspeção do conteúdo.

Isaia Gisler (ETH Zürich), Zhonghao He (University of Cambridge), Tianyi Qiu (Peking University)Wed, 11 Ma🤖 cs.LG

Enhancing Debunking Effectiveness through LLM-based Personality Adaptation

Este estudo propõe uma metodologia inovadora que utiliza Grandes Modelos de Linguagem (LLMs) para adaptar mensagens de desmentido de fake news aos traços de personalidade do Big Five, demonstrando que a personalização aumenta a persuasão e oferecendo uma avaliação automatizada que levanta questões éticas sobre o uso dessa tecnologia.

Pietro Dell'Oglio, Alessandro Bondielli, Francesco Marcelloni, Lucia C. PassaroWed, 11 Ma🤖 cs.AI