Do Schwartz Higher-Order Values Help Sentence-Level Human Value Detection? A Study of Hierarchical Gating and Calibration

Este estudo demonstra que, para a detecção de valores humanos em nível de frase, a estrutura de valores de ordem superior de Schwartz funciona melhor como um viés indutivo do que como uma regra de roteamento rígida, sendo que os ganhos mais significativos de desempenho provêm de técnicas de calibração e ensembles em vez de arquiteturas hierárquicas complexas.

Víctor Yeste, Paolo Rosso2026-03-10🤖 cs.LG

LatentMem: Customizing Latent Memory for Multi-Agent Systems

O artigo apresenta o LatentMem, um framework de memória multiagente aprendível que supera as limitações de homogeneização e sobrecarga de informação existentes ao sintetizar memórias latentes compactas e específicas para cada agente, otimizando-as através da Política de Otimização de Memória Latente (LMPO) para alcançar ganhos de desempenho significativos sem modificar os sistemas subjacentes.

Muxin Fu, Xiangyuan Xue, Yafu Li, Zefeng He, Siyuan Huang, Xiaoye Qu, Yu Cheng, Yang Yang2026-03-10🤖 cs.LG

Thickening-to-Thinning: Reward Shaping via Human-Inspired Learning Dynamics for LLM Reasoning

O artigo apresenta o T2T (Thickening-to-Thinning), um novo framework de recompensa dinâmica inspirado no aprendizado humano que alterna entre incentivar trajetórias mais longas para explorar soluções em tentativas erradas e penalizar o comprimento após o acerto para eliminar redundâncias, resultando em desempenho superior de raciocínio em modelos de linguagem em benchmarks matemáticos.

Wenze Lin, Zhen Yang, Xitai Jiang, Pony Ma, Gao Huang2026-03-10🤖 cs.LG

Inference-Time Backdoors via Hidden Instructions in LLM Chat Templates

Este artigo revela uma nova vulnerabilidade de segurança em modelos de linguagem de código aberto, demonstrando que atacantes podem implantar backdoors durante a inferência manipulando apenas os modelos de chat (templates) sem alterar os pesos do modelo ou os dados de treinamento, o que permite desativar a precisão factual ou induzir a emissão de URLs maliciosas sob condições específicas enquanto permanece invisível para as verificações de segurança automatizadas.

Ariel Fogel, Omer Hofman, Eilon Cohen, Roman Vainshtein2026-03-10🤖 cs.LG

Radial Müntz-Szász Networks: Neural Architectures with Learnable Power Bases for Multidimensional Singularities

O artigo apresenta as Redes Radiais de Müntz-Szász (RMN), uma arquitetura neural inovadora que utiliza potências radiais aprendíveis e um termo logarítmico estável para modelar com alta precisão e eficiência campos singulares multidimensionais, superando significativamente as redes neurais tradicionais em termos de erro e número de parâmetros.

Gnankan Landry Regis N'guessan, Bum Jun Kim2026-03-10🤖 cs.LG

SDFed: Bridging Local Global Discrepancy via Subspace Refinement and Divergence Control in Federated Prompt Learning

O artigo apresenta o SDFed, um framework de aprendizado federado heterogêneo para modelos de visão e linguagem que supera as limitações de métodos existentes ao permitir prompts locais de comprimento variável e empregar refinamento de subespaço e controle de divergência para alinhar efetivamente os conhecimentos locais e globais em ambientes com dados e recursos desiguais.

Yicheng Di, Wei Yuan, Tieke He, Yuan Liu, Hongzhi Yin2026-03-10🤖 cs.LG

Retrieval Pivot Attacks in Hybrid RAG: Measuring and Mitigating Amplified Leakage from Vector Seeds to Graph Expansion

Este artigo demonstra que os pipelines híbridos de RAG introduzem uma vulnerabilidade de segurança chamada "Risco de Pivotamento de Retorno" (RPR), onde dados sensíveis vazam entre inquilinos através de conexões de grafos iniciadas por vetores, e propõe que a verificação de autorização na fronteira de expansão do grafo é uma mitigação eficaz e de baixo custo para eliminar esse vazamento.

Scott Thornton2026-03-10🤖 cs.LG

Diffusion-Guided Pretraining for Brain Graph Foundation Models

Este artigo propõe um novo quadro unificado de pré-treinamento baseado em difusão para modelos fundamentais de grafos cerebrais, que supera as limitações dos métodos existentes ao utilizar a difusão para orientar estratégias de mascaramento e reconstrução que preservam padrões de conectividade semanticamente significativos e capturam informações estruturais globais, resultando em representações mais robustas validadas em grandes conjuntos de dados de neuroimagem.

Xinxu Wei, Rong Zhou, Lifang He, Yu Zhang2026-03-10🤖 cs.LG

Discovering Semantic Latent Structures in Psychological Scales: A Response-Free Pathway to Efficient Simplification

Este artigo apresenta um novo quadro de trabalho baseado em processamento de linguagem natural que utiliza modelagem de tópicos e agrupamento semântico para simplificar escalas psicológicas sem depender de dados de resposta, conseguindo reduzir o número de itens em cerca de 60,5% enquanto preserva a estrutura fatorial e a consistência interna das escalas originais.

Bo Wang, Yuxuan Zhang, Yueqin Hu, Hanchao Hou, Kaiping Peng, Shiguang Ni2026-03-10🤖 cs.LG

TrasMuon: Trust-Region Adaptive Scaling for Orthogonalized Momentum Optimizers

O artigo apresenta o TrasMuon, um otimizador que combina a geometria quase isométrica dos métodos Muon com calibração global e um mecanismo de região de confiança baseado em energia para estabilizar magnitudes e melhorar a convergência e robustez em modelos de visão e linguagem, mesmo sem etapas de warmup.

Peng Cheng, Jiucheng Zang, Qingnan Li, Liheng Ma, Yufei Cui, Yingxue Zhang, Boxing Chen, Ming Jian, Wen Tong2026-03-10🤖 cs.LG

Benchmark Leakage Trap: Can We Trust LLM-based Recommendation?

Este artigo investiga o problema de vazamento de dados em benchmarks para sistemas de recomendação baseados em Grandes Modelos de Linguagem (LLMs), demonstrando que a exposição prévia a esses dados durante o treinamento pode inflar artificialmente as métricas de desempenho quando os dados são relevantes ao domínio ou degradar a precisão quando são irrelevantes, comprometendo assim a confiabilidade das avaliações atuais.

Mingqiao Zhang, Qiyao Peng, Yumeng Wang, Chunyuan Liu, Hongtao Liu2026-03-10🤖 cs.LG

Mean Flow Policy with Instantaneous Velocity Constraint for One-step Action Generation

Este artigo apresenta a Política de Velocidade Média (MVP), um novo método de política generativa que utiliza uma restrição de velocidade instantânea para garantir alta expressividade e permitir a geração de ações em um único passo, superando os métodos baseados em fluxo existentes em termos de precisão, velocidade de treinamento e desempenho em tarefas de manipulação robótica.

Guojian Zhan, Letian Tao, Pengcheng Wang, Yixiao Wang, Yiheng Li, Yuxin Chen, Hongyang Li, Masayoshi Tomizuka, Shengbo Eben Li2026-03-10🤖 cs.LG

Why Code, Why Now: Learnability, Computability, and the Real Limits of Machine Learning

O artigo propõe uma hierarquia de cinco níveis de aprendibilidade baseada na estrutura de informação dos problemas, argumentando que a geração de código avança mais rapidamente que o aprendizado por reforço devido à sua verificação densa e local, e que o progresso futuro da IA depende mais da natureza aprendível das tarefas do que apenas do aumento do tamanho dos modelos.

Zhimin Zhao2026-03-10🤖 cs.LG

LongAudio-RAG: Event-Grounded Question Answering over Multi-Hour Long Audio

O artigo apresenta o LongAudio-RAG, um framework híbrido que responde a perguntas sobre áudios de longa duração ao converter gravações em registros de eventos estruturados para recuperação precisa e geração de respostas por modelos de linguagem, demonstrando sua eficácia e viabilidade em uma arquitetura de borda-nuvem.

Naveen Vakada, Kartik Hegde, Arvind Krishna Sridhar, Yinyi Guo, Erik Visser2026-03-10🤖 cs.LG

Accelerated Predictive Coding Networks via Direct Kolen-Pollack Feedback Alignment

O artigo propõe a Rede de Codificação Preditiva com Alinhamento Direto Kolen-Pollack (DKP-PC), um algoritmo biologicamente inspirado que utiliza conexões de feedback diretas para eliminar o atraso e o decaimento exponencial na propagação de erros, reduzindo a complexidade temporal de O(L) para O(1) enquanto mantém a localidade das atualizações e supera ou iguala o desempenho das redes de codificação preditiva padrão.

Davide Casnici, Martin Lefebvre, Justin Dauwels, Charlotte Frenkel2026-03-10🤖 cs.LG

On the Power of Source Screening for Learning Shared Feature Extractors

Este artigo demonstra que a seleção criteriosa de fontes de dados, mesmo descartando uma parcela significativa deles, é fundamental para alcançar a estimação estatisticamente ótima de extratores de características compartilhados em cenários lineares, propondo algoritmos e heurísticas para identificar subpopulações informativas que garantem a otimalidade minimax.

Leo Muxing Wang, Connor Mclaughlin, Lili Su2026-03-10🤖 cs.LG