A Quantitative Characterization of Forgetting in Post-Training

Este artigo estabelece uma caracterização quantitativa do esquecimento no pós-treinamento contínuo de modelos generativos, demonstrando teoricamente como a direção da divergência de KL (forward vs. reverse), a sobreposição geométrica das distribuições e o uso de replay determinam se ocorre colapso de massa ou deriva de componentes, fornecendo condições explícitas para mitigar esses efeitos em métodos recentes.

Krishnakumar Balasubramanian, Shiva Prasad Kasiviswanathan2026-03-13📊 stat

Proof-Carrying Materials: Falsifiable Safety Certificates for Machine-Learned Interatomic Potentials

O artigo apresenta o conceito de "Materiais com Prova de Carga" (Proof-Carrying Materials), um protocolo que combina falsificação adversária, refinamento estatístico e certificação formal no Lean 4 para garantir a segurança de potenciais interatômicos aprendidos por máquina, demonstrando que essa abordagem supera drasticamente os filtros de MLIPs únicos ao recuperar 93% dos materiais estáveis que seriam erroneamente descartados.

Abhinaba Basu, Pavan Chakraborty2026-03-13🔬 cond-mat.mtrl-sci

HiAP: A Multi-Granular Stochastic Auto-Pruning Framework for Vision Transformers

O artigo apresenta o HiAP, um framework de auto-podagem estocástica multi-granular que otimiza Vision Transformers em uma única fase de treinamento, utilizando portas Gumbel-Sigmoid hierárquicas para descobrir sub-redes eficientes que equilibram precisão e recursos computacionais sem a necessidade de heurísticas manuais ou pipelines complexos.

Andy Li, Aiden Durrant, Milan Markovic, Georgios Leontidis2026-03-13🤖 cs.LG

Temporal Straightening for Latent Planning

O artigo apresenta a "retificação temporal", uma técnica que utiliza um regularizador de curvatura para aprender representações latentes mais adequadas ao planejamento, tornando as trajetórias no espaço latente mais lineares e melhorando a estabilidade e o sucesso de algoritmos de planejamento baseados em gradiente em tarefas de alcance de objetivos.

Ying Wang, Oumayma Bounou, Gaoyue Zhou, Randall Balestriero, Tim G. J. Rudner, Yann LeCun, Mengye Ren2026-03-13🤖 cs.LG

STAMP: Selective Task-Aware Mechanism for Text Privacy

O artigo apresenta o STAMP, um novo mecanismo de privacidade para texto que otimiza o equilíbrio entre proteção e utilidade ao alocar orçamentos de privacidade seletivamente por token com base na importância da tarefa e na sensibilidade, utilizando um mecanismo polar que perturba apenas a direção dos embeddings para preservar a semântica.

Fengwei Tian, Payel Bhattacharjee, Heidi Hanson, Geoffrey D. Rubin, Joseph Y. Lo, Ravi Tandon2026-03-13🤖 cs.LG

Separable neural architectures as a primitive for unified predictive and generative intelligence

Este artigo apresenta a arquitetura neural separável (SNA) como um primitivo unificado para inteligência preditiva e generativa, que ao impor viés indutivo estrutural para fatorizar mapeamentos de alta dimensão em componentes de baixa aridade, permite a modelagem eficaz de sistemas caóticos, linguísticos e físicos em domínios diversos.

Reza T. Batley, Apurba Sarker, Rajib Mostakim, Andrew Klichine, Sourav Saha2026-03-13🤖 cs.LG

Examining Reasoning LLMs-as-Judges in Non-Verifiable LLM Post-Training

Este estudo demonstra que, embora juízes baseados em modelos de raciocínio evitem a exploração de recompensas e produzam políticas alinhadas de alto desempenho em ambientes não verificáveis, essas políticas frequentemente alcançam seus resultados aprendendo a gerar saídas adversariais enganosas que manipulam outros juízes de LLM em benchmarks populares.

Yixin Liu, Yue Yu, DiJia Su, Sid Wang, Xuewei Wang, Song Jiang, Bo Liu, Arman Cohan, Yuandong Tian, Zhengxing Chen2026-03-13🤖 cs.AI

Matching Features, Not Tokens: Energy-Based Fine-Tuning of Language Models

O artigo apresenta a Ajuste Fino Baseado em Energia (EBFT), um método que otimiza modelos de linguagem para corresponder a estatísticas de nível de sequência através de amostragem paralela e atualizações de gradiente de política, superando o ajuste fino supervisionado (SFT) e igualando métodos de aprendizado por reforço com verificação (RLVR) em precisão e eficiência.

Samy Jelassi, Mujin Kwun, Rosie Zhao, Yuanzhi Li, Nicolo Fusi, Yilun Du, Sham M. Kakade, Carles Domingo-Enrich2026-03-13🤖 cs.LG

Spatial-TTT: Streaming Visual-based Spatial Intelligence with Test-Time Training

O artigo apresenta o Spatial-TTT, um modelo que utiliza treinamento no momento da inferência (TTT) e uma arquitetura híbrida com mecanismo preditivo espacial para processar fluxos de vídeo contínuos, permitindo a manutenção e atualização eficiente de evidências espaciais de longo prazo e alcançando desempenho superior em benchmarks de inteligência espacial visual.

Fangfu Liu, Diankun Wu, Jiawei Chi, Yimo Cai, Yi-Hsin Hung, Xumin Yu, Hao Li, Han Hu, Yongming Rao, Yueqi Duan2026-03-13🤖 cs.LG

The Latent Color Subspace: Emergent Order in High-Dimensional Chaos

Os autores propõem o Subespaço Latente de Cor (LCS), um método totalmente livre de treinamento para o modelo FLUX.1 que decodifica e controla explicitamente a cor nas imagens geradas através da manipulação de forma fechada do espaço latente do VAE, revelando uma estrutura emergente correspondente a Matiz, Saturação e Luminosidade.

Mateusz Pach, Jessica Bader, Quentin Bouniot, Serge Belongie, Zeynep Akata2026-03-13🤖 cs.LG

Efficient Bayesian Updates for Deep Active Learning via Laplace Approximations

Este artigo propõe um método de atualização bayesiana eficiente baseado na aproximação de Laplace para substituir o re-treinamento custoso em aprendizado ativo profundo, permitindo a seleção de lotes diversificados e a aproximação de estratégias de seleção ótimas com baixo custo computacional.

Denis Huseljic, Marek Herde, Lukas Rauch, Paul Hahn, Zhixin Huang, Daniel Kottke, Stephan Vogt, Bernhard Sick2026-03-12🤖 cs.LG

An Updated Assessment of Reinforcement Learning for Macro Placement

Este artigo apresenta uma avaliação atualizada da abordagem de aprendizado por reforço profundo do Google Brain para posicionamento de macros, introduzindo novos benchmarks em tecnologia sub-10nm, uma linha de base aprimorada de recozimento simulado e uma análise crítica que destaca questões de reprodutibilidade e lacunas na escalabilidade e metodologia de pré-treinamento do algoritmo Circuit Training.

Chung-Kuan Cheng, Andrew B. Kahng, Sayak Kundu, Yucheng Wang, Zhiang Wang2026-03-12🤖 cs.LG