Cornserve: A Distributed Serving System for Any-to-Any Multimodal Models

O artigo apresenta o Cornserve, um sistema de serviço distribuído de código aberto baseado em Kubernetes para modelos multimodais "qualquer-para-qualquer", que utiliza abstração de tarefas flexível, desagregação de componentes e um modelo de execução eficiente para alcançar até 3,81 vezes maior vazão e 5,79 vezes menor latência em comparação com abordagens existentes.

Jae-Won Chung, Jeff J. Ma, Jisang Ahn, Yizhuo Liang, Akshay Jajoo, Myungjin Lee, Mosharaf Chowdhury2026-03-13🤖 cs.LG

Automatic Generation of High-Performance RL Environments

Este artigo apresenta um método reutilizável de baixo custo que utiliza prompts genéricos, verificação hierárquica e reparo iterativo assistido por agentes para traduzir automaticamente ambientes complexos de Aprendizado por Reforço em implementações de alto desempenho semanticamente equivalentes, alcançando ganhos de velocidade de até 22.320 vezes em relação a referências existentes.

Seth Karten, Rahul Dev Appapogu, Chi Jin2026-03-13🤖 cs.LG

IsoCompute Playbook: Optimally Scaling Sampling Compute for LLM RL

Este artigo estabelece regras prescritivas para a alocação ótima de recursos computacionais no pós-treinamento por reforço de LLMs, demonstrando que o número ideal de rolagens paralelas por problema aumenta e depois satura conforme o orçamento de computação, com mecanismos distintos para problemas fáceis e difíceis, enquanto o tamanho do lote de problemas pode ser ajustado em uma ampla faixa sem comprometer a estabilidade.

Zhoujun Cheng, Yutao Xie, Yuxiao Qu, Amrith Setlur, Shibo Hao, Varad Pimpalkhute, Tongtong Liang, Feng Yao, Zhengzhong Liu, Eric Xing, Virginia Smith, Ruslan Salakhutdinov, Zhiting Hu, Taylor Killian, Aviral Kumar2026-03-13🤖 cs.LG

A Quantitative Characterization of Forgetting in Post-Training

Este artigo estabelece uma caracterização quantitativa do esquecimento no pós-treinamento contínuo de modelos generativos, demonstrando teoricamente como a direção da divergência de KL (forward vs. reverse), a sobreposição geométrica das distribuições e o uso de replay determinam se ocorre colapso de massa ou deriva de componentes, fornecendo condições explícitas para mitigar esses efeitos em métodos recentes.

Krishnakumar Balasubramanian, Shiva Prasad Kasiviswanathan2026-03-13📊 stat

Proof-Carrying Materials: Falsifiable Safety Certificates for Machine-Learned Interatomic Potentials

O artigo apresenta o conceito de "Materiais com Prova de Carga" (Proof-Carrying Materials), um protocolo que combina falsificação adversária, refinamento estatístico e certificação formal no Lean 4 para garantir a segurança de potenciais interatômicos aprendidos por máquina, demonstrando que essa abordagem supera drasticamente os filtros de MLIPs únicos ao recuperar 93% dos materiais estáveis que seriam erroneamente descartados.

Abhinaba Basu, Pavan Chakraborty2026-03-13🔬 cond-mat.mtrl-sci

HiAP: A Multi-Granular Stochastic Auto-Pruning Framework for Vision Transformers

O artigo apresenta o HiAP, um framework de auto-podagem estocástica multi-granular que otimiza Vision Transformers em uma única fase de treinamento, utilizando portas Gumbel-Sigmoid hierárquicas para descobrir sub-redes eficientes que equilibram precisão e recursos computacionais sem a necessidade de heurísticas manuais ou pipelines complexos.

Andy Li, Aiden Durrant, Milan Markovic, Georgios Leontidis2026-03-13🤖 cs.LG

Temporal Straightening for Latent Planning

O artigo apresenta a "retificação temporal", uma técnica que utiliza um regularizador de curvatura para aprender representações latentes mais adequadas ao planejamento, tornando as trajetórias no espaço latente mais lineares e melhorando a estabilidade e o sucesso de algoritmos de planejamento baseados em gradiente em tarefas de alcance de objetivos.

Ying Wang, Oumayma Bounou, Gaoyue Zhou, Randall Balestriero, Tim G. J. Rudner, Yann LeCun, Mengye Ren2026-03-13🤖 cs.LG

STAMP: Selective Task-Aware Mechanism for Text Privacy

O artigo apresenta o STAMP, um novo mecanismo de privacidade para texto que otimiza o equilíbrio entre proteção e utilidade ao alocar orçamentos de privacidade seletivamente por token com base na importância da tarefa e na sensibilidade, utilizando um mecanismo polar que perturba apenas a direção dos embeddings para preservar a semântica.

Fengwei Tian, Payel Bhattacharjee, Heidi Hanson, Geoffrey D. Rubin, Joseph Y. Lo, Ravi Tandon2026-03-13🤖 cs.LG

Separable neural architectures as a primitive for unified predictive and generative intelligence

Este artigo apresenta a arquitetura neural separável (SNA) como um primitivo unificado para inteligência preditiva e generativa, que ao impor viés indutivo estrutural para fatorizar mapeamentos de alta dimensão em componentes de baixa aridade, permite a modelagem eficaz de sistemas caóticos, linguísticos e físicos em domínios diversos.

Reza T. Batley, Apurba Sarker, Rajib Mostakim, Andrew Klichine, Sourav Saha2026-03-13🤖 cs.LG

Examining Reasoning LLMs-as-Judges in Non-Verifiable LLM Post-Training

Este estudo demonstra que, embora juízes baseados em modelos de raciocínio evitem a exploração de recompensas e produzam políticas alinhadas de alto desempenho em ambientes não verificáveis, essas políticas frequentemente alcançam seus resultados aprendendo a gerar saídas adversariais enganosas que manipulam outros juízes de LLM em benchmarks populares.

Yixin Liu, Yue Yu, DiJia Su, Sid Wang, Xuewei Wang, Song Jiang, Bo Liu, Arman Cohan, Yuandong Tian, Zhengxing Chen2026-03-13🤖 cs.AI

Matching Features, Not Tokens: Energy-Based Fine-Tuning of Language Models

O artigo apresenta a Ajuste Fino Baseado em Energia (EBFT), um método que otimiza modelos de linguagem para corresponder a estatísticas de nível de sequência através de amostragem paralela e atualizações de gradiente de política, superando o ajuste fino supervisionado (SFT) e igualando métodos de aprendizado por reforço com verificação (RLVR) em precisão e eficiência.

Samy Jelassi, Mujin Kwun, Rosie Zhao, Yuanzhi Li, Nicolo Fusi, Yilun Du, Sham M. Kakade, Carles Domingo-Enrich2026-03-13🤖 cs.LG