Addressing the Ecological Fallacy in Larger LMs with Human Context

Este trabalho demonstra que abordar a falácia ecológica ao modelar o contexto linguístico do autor, seja através de pré-treinamento HuLM ou de ajuste fino (HuFT) com QLoRA em um modelo Llama de 8B, resulta em melhor desempenho em diversas tarefas downstream em comparação com métodos padrão.

Nikita Soni, Dhruv Vijay Kunjadiya, Pratham Piyush Shah, Dikshya Mohanty, H. Andrew Schwartz, Niranjan Balasubramanian2026-03-09🤖 cs.AI

A Persistent-State Dataflow Accelerator for Memory-Bound Linear Attention Decode on FPGA

Este artigo apresenta um acelerador em FPGA que elimina o gargalo de memória no processo de decodificação do mecanismo de atenção linear Gated DeltaNet, mantendo o estado recorrente em memória on-chip e alcançando uma velocidade 4,5 vezes superior e uma eficiência energética 60 vezes maior em comparação com GPUs de última geração.

Neelesh Gupta, Peter Wang, Rajgopal Kannan, Viktor K. Prasanna2026-03-09🤖 cs.LG

Implicit Style Conditioning: A Structured Style-Rewrite Framework for Low-Resource Character Modeling

O artigo propõe um framework de reescrita de estilo estruturado que, ao combinar a desentrelaçação explícita de características estilísticas com uma estratégia de condicionamento implícito via raciocínio encadeado, permite que modelos de linguagem pequenos (SLMs) gerem personagens com alta fidelidade estilística e semântica, superando modelos maiores em cenários de poucos dados.

Chanhui Zhu2026-03-09🤖 cs.LG

Who We Are, Where We Are: Mental Health at the Intersection of Person, Situation, and Large Language Models

Este artigo desenvolve modelos interpretáveis que integram traços psicológicos individuais e contextos situacionais inferidos a partir de dados de mídia social para prever o bem-estar, demonstrando que abordagens baseadas em teoria psicológica oferecem desempenho competitivo e maior transparência em comparação com embeddings de modelos de linguagem.

Nikita Soni, August Håkan Nilsson, Syeda Mahwish, Vasudha Varadarajan, H. Andrew Schwartz, Ryan L. Boyd2026-03-09🤖 cs.AI

Omni-Masked Gradient Descent: Memory-Efficient Optimization via Mask Traversal with Improved Convergence

O artigo propõe o Omni-Masked Gradient Descent (OMGD), um método de otimização leve e compatível com os principais otimizadores que utiliza travessia de máscaras para treinamento eficiente em memória e oferece uma complexidade de iteração estritamente melhorada de O~(ϵ3)\tilde{\mathcal{O}}(\epsilon^{-3}) em cenários não convexos, superando as abordagens existentes tanto em garantias teóricas quanto em desempenho empírico.

Hui Yang, Tao Ren, Jinyang Jiang, Wan Tian, Yijie Peng2026-03-09🤖 cs.LG

TADPO: Reinforcement Learning Goes Off-road

O artigo apresenta o TADPO, uma nova formulação de gradiente de política que combina trajetórias off-policy e on-policy para permitir a navegação em alta velocidade em terrenos off-road complexos, marcando a primeira implementação bem-sucedida de políticas baseadas em aprendizado por reforço em um veículo off-road em escala real com transferência zero-shot de simulação para a realidade.

Zhouchonghao Wu, Raymond Song, Vedant Mundheda, Luis E. Navarro-Serment, Christof Schoenborn, Jeff Schneider2026-03-09🤖 cs.AI

EvoESAP: Non-Uniform Expert Pruning for Sparse MoE

O artigo apresenta o EvoESAP, um método de poda de especialistas não uniforme para modelos MoE esparsos que utiliza uma métrica baseada em aceitação especulativa (ESAP) e busca evolutiva para otimizar a alocação de orçamento entre camadas, resultando em ganhos significativos de desempenho na geração de texto aberto sem comprometer a precisão em tarefas de múltipla escolha.

Zongfang Liu, Shengkun Tang, Boyang Sun, Zhiqiang Shen, Xin Yuan2026-03-09🤖 cs.LG

Preventing Learning Stagnation in PPO by Scaling to 1 Million Parallel Environments

O artigo demonstra que o estagnamento de aprendizado no PPO ocorre quando as estimativas baseadas em amostras se tornam proxies ruins do objetivo real, propondo que escalar para mais de 1 milhão de ambientes paralelos, ajustando adequadamente os hiperparâmetros, permite reduzir o ruído e o tamanho do passo para alcançar melhorias monotônicas de desempenho até um trilhão de transições.

Michael Beukman, Khimya Khetarpal, Zeyu Zheng, Will Dabney, Jakob Foerster, Michael Dennis, Clare Lyle2026-03-09🤖 cs.LG

Agnostic learning in (almost) optimal time via Gaussian surface area

Este artigo melhora os limites conhecidos para a complexidade de aprendizado agnóstico sob marginais gaussianas, demonstrando que um grau polinomial de O~(Γ2/ε2)\tilde O(\Gamma^2 / \varepsilon^2) é suficiente para aproximar classes de conceitos com área de superfície gaussiana Γ\Gamma, resultando em limites quase ótimos para funções de limiar polinomial no modelo de consultas estatísticas.

Lucas Pesenti, Lucas Slot, Manuel Wiedmer2026-03-09🤖 cs.LG

DQE: A Semantic-Aware Evaluation Metric for Time Series Anomaly Detection

Este artigo propõe a DQE, uma nova métrica de avaliação para detecção de anomalias em séries temporais que supera as limitações das abordagens existentes ao incorporar uma segmentação semântica das anomalias e uma agregação de qualidade sobre todo o espectro de limiares, resultando em uma avaliação mais estável, discriminativa e interpretável.

Yuewei Li, Dalin Zhang, Huan Li, Xinyi Gong, Hongjun Chu, Zhaohui Song2026-03-09🤖 cs.LG

Partial Policy Gradients for RL in LLMs

O artigo propõe uma abordagem de Gradientes de Política Parciais para Aprendizado por Reforço em LLMs, que otimiza subconjuntos de recompensas futuras para modelar diferentes classes de políticas (como planejamento completo, gananciosa ou com horizonte limitado), demonstrando empiricamente que diferentes políticas se destacam em diferentes problemas de alinhamento conversacional.

Puneet Mathur, Branislav Kveton, Subhojyoti Mukherjee, Viet Dac Lai2026-03-09🤖 cs.AI

Ensemble Graph Neural Networks for Probabilistic Sea Surface Temperature Forecasting via Input Perturbations

Este artigo demonstra que a aplicação de perturbações de entrada estruturadas, como ruído de Perlin, em redes neurais gráficas (GNNs) permite gerar previsões probabilísticas de temperatura da superfície do mar bem calibradas e eficientes para a região das Ilhas Canárias, sem a necessidade de custos adicionais de treinamento.

Alejandro J. González-Santana, Giovanny A. Cuervo-Londoño, Javier Sánchez2026-03-09🤖 cs.AI

Efficient Vector Search in the Wild: One Model for Multi-K Queries

O artigo apresenta o OMEGA, um método de busca aprendida que, ao treinar um modelo base apenas para K=1 e aplicar refinamentos dinâmicos, permite atender consultas de múltiplos valores de K com alta precisão e desempenho, reduzindo significativamente o tempo de latência e os custos de pré-processamento em comparação com métodos existentes.

Yifan Peng, Jiafei Fan, Xingda Wei, Sijie Shen, Rong Chen, Jianning Wang, Xiaojian Luo, Wenyuan Yu, Jingren Zhou, Haibo Chen2026-03-09🤖 cs.LG

Contrastive-to-Self-Supervised: A Two-Stage Framework for Script Similarity Learning

Este artigo propõe uma estrutura de duas etapas que combina aprendizado contrastivo supervisionado em alfabetos inventados com destilação de conhecimento para aprendizado auto-supervisionado em scripts históricos, permitindo a extração de representações de glifos que capturam tanto distinções claras quanto similaridades evolutivas latentes sem depender de relações de ground-truth.

Claire Roman, Philippe Meyer2026-03-09🤖 cs.AI