How Far Can Unsupervised RLVR Scale LLM Training?

Este artigo analisa o Aprendizado por Reforço Não Supervisionado com Recompensas Verificáveis (URLVR), demonstrando que os métodos intrínsecos enfrentam limites de escala devido ao alinhamento entre confiança e correção, enquanto propõe métricas para identificar esses limites e explora recompensas externas como uma alternativa promissora para superar essas barreiras.

Bingxiang He, Yuxin Zuo, Zeyuan Liu, Shangziqi Zhao, Zixuan Fu, Junlin Yang, Cheng Qian, Kaiyan Zhang, Yuchen Fan, Ganqu Cui, Xiusi Chen, Youbang Sun, Xingtai Lv, Xuekai Zhu, Li Sheng, Ran Li, Huan-ang Gao, Yuchen Zhang, Bowen Zhou, Zhiyuan Liu, Ning Ding2026-03-10🤖 cs.LG

Structural Causal Bottleneck Models

O artigo apresenta os Modelos de Gargalo Causal Estrutural (SCBMs), uma nova classe de modelos causais que assume que os efeitos entre variáveis de alta dimensão dependem apenas de estatísticas resumidas de baixa dimensão, oferecendo uma estrutura flexível para redução de dimensionalidade específica de tarefas e estimável com algoritmos simples, com benefícios demonstrados na transferência de aprendizado com poucos dados.

Simon Bing, Jonas Wahl, Jakob Runge2026-03-10🤖 cs.LG

Split Federated Learning Architectures for High-Accuracy and Low-Delay Model Training

Este trabalho propõe o primeiro algoritmo heurístico consciente de precisão para otimizar conjuntamente as camadas de particionamento e atribuições de clientes em Arquiteturas de Aprendizado Federado Dividido Hierárquico (HSFL), demonstrando que tal abordagem pode melhorar a precisão do modelo em 3%, reduzir o atraso em 20% e diminuir a sobrecarga de comunicação em 50% em comparação com soluções existentes.

Yiannis Papageorgiou, Yannis Thomas, Ramin Khalili, Iordanis Koutsopoulos2026-03-10🤖 cs.LG

Impermanent: A Live Benchmark for Temporal Generalization in Time Series Forecasting

O artigo apresenta o "Impermanent", um novo benchmark ao vivo que avalia modelos de previsão de séries temporais em ambientes dinâmicos e não estacionários, utilizando dados em tempo real da atividade no GitHub para superar as limitações das divisões estáticas tradicionais e medir a verdadeira generalização temporal.

Azul Garza, Renée Rosillo, Rodrigo Mendoza-Smith, David Salinas, Andrew Robert Williams, Arjun Ashok, Mononito Goswami, José Martín Juárez2026-03-10🤖 cs.LG

A Cognitive Explainer for Fetal ultrasound images classifier Based on Medical Concepts

Este artigo propõe um framework interpretável baseado em conceitos médicos-chave e redes neurais de convolução gráfica (GCN) para classificar imagens de ultrassom fetal, oferecendo explicações alinhadas à cognição clínica que superam as limitações de transparência dos modelos de deep learning tradicionais.

Yingni Wanga, Yunxiao Liua, Licong Dongc, Xuzhou Wua, Huabin Zhangb, Qiongyu Yed, Desheng Sunc, Xiaobo Zhoue, Kehong Yuan2026-03-09🤖 cs.AI

Expert-Aided Causal Discovery of Ancestral Graphs

O artigo apresenta o Ancestral GFlowNet (AGFN), um algoritmo de aprendizado por reforço que realiza inferência distribucional sobre grafos ancestrais e integra conhecimento prévio e feedback incerto de especialistas para refinar a descoberta causal, superando métodos existentes em precisão estrutural.

Tiago da Silva, Bruna Bazaluk, Eliezer de Souza da Silva, António Góis, Salem Lahlou, Dominik Heider, Samuel Kaski, Diego Mesquita, Adèle Helena Ribeiro2026-03-09🤖 cs.LG

A unified framework for learning with nonlinear model classes from arbitrary linear samples

Este artigo apresenta um quadro unificado para aprender objetos desconhecidos a partir de medições lineares arbitrárias usando classes de modelos não lineares, estabelecendo limites de generalização próximos ao ótimo que relacionam a quantidade de dados necessária à complexidade estrutural do modelo e à variação deste em relação ao processo de amostragem.

Ben Adcock, Juan M. Cardenas, Nick Dexter2026-03-09🤖 cs.LG

Estimation of Energy-dissipation Lower-bounds for Neuromorphic Learning-in-memory

Este artigo deriva estimativas teóricas de limites inferiores para o consumo energético de otimizadores neuromórficos ideais que utilizam o paradigma de "aprendizado na memória" (LIM), estabelecendo métricas de eficiência energética independentes do modelo que dependem apenas do número de operações, tamanho do modelo, velocidade de convergência e precisão da solução.

Zihao Chen, Faiek Ahsan, Johannes Leugering, Gert Cauwenberghs, Shantanu Chakrabartty2026-03-09🤖 cs.AI

Make VLM Recognize Visual Hallucination on Cartoon Character Image with Pose Information

Este artigo propõe um novo sistema de detecção de alucinações visuais estruturais em imagens de personagens de desenho animado geradas por modelos Texto-para-Imagem, utilizando um Modelo Visão-Linguagem aprimorado por aprendizado em contexto com orientação de pose (PA-ICVL), que demonstra melhorias significativas de desempenho em comparação com métodos baseados apenas em imagens RGB.

Bumsoo Kim, Wonseop Shin, Kyuchul Lee, Yonghoon Jung, Sanghyun Seo2026-03-09🤖 cs.AI

Combining X-Vectors and Bayesian Batch Active Learning: Two-Stage Active Learning Pipeline for Speech Recognition

Este artigo apresenta um pipeline inovador de aprendizado ativo em duas etapas para reconhecimento automático de fala, que combina agrupamento de x-vectors e inferência bayesiana via dropout Monte Carlo para selecionar amostras diversificadas e informativas, otimizando significativamente o esforço de rotulagem e o desempenho do modelo.

Ognjen Kundacina, Vladimir Vincan, Dragisa Miskovic2026-03-09⚡ eess