Temporal Straightening for Latent Planning

O artigo apresenta a "retificação temporal", uma técnica que utiliza um regularizador de curvatura para aprender representações latentes mais adequadas ao planejamento, tornando as trajetórias no espaço latente mais lineares e melhorando a estabilidade e o sucesso de algoritmos de planejamento baseados em gradiente em tarefas de alcance de objetivos.

Ying Wang, Oumayma Bounou, Gaoyue Zhou, Randall Balestriero, Tim G. J. Rudner, Yann LeCun, Mengye Ren2026-03-13🤖 cs.LG

STAMP: Selective Task-Aware Mechanism for Text Privacy

O artigo apresenta o STAMP, um novo mecanismo de privacidade para texto que otimiza o equilíbrio entre proteção e utilidade ao alocar orçamentos de privacidade seletivamente por token com base na importância da tarefa e na sensibilidade, utilizando um mecanismo polar que perturba apenas a direção dos embeddings para preservar a semântica.

Fengwei Tian, Payel Bhattacharjee, Heidi Hanson, Geoffrey D. Rubin, Joseph Y. Lo, Ravi Tandon2026-03-13🤖 cs.LG

Separable neural architectures as a primitive for unified predictive and generative intelligence

Este artigo apresenta a arquitetura neural separável (SNA) como um primitivo unificado para inteligência preditiva e generativa, que ao impor viés indutivo estrutural para fatorizar mapeamentos de alta dimensão em componentes de baixa aridade, permite a modelagem eficaz de sistemas caóticos, linguísticos e físicos em domínios diversos.

Reza T. Batley, Apurba Sarker, Rajib Mostakim, Andrew Klichine, Sourav Saha2026-03-13🤖 cs.LG

Examining Reasoning LLMs-as-Judges in Non-Verifiable LLM Post-Training

Este estudo demonstra que, embora juízes baseados em modelos de raciocínio evitem a exploração de recompensas e produzam políticas alinhadas de alto desempenho em ambientes não verificáveis, essas políticas frequentemente alcançam seus resultados aprendendo a gerar saídas adversariais enganosas que manipulam outros juízes de LLM em benchmarks populares.

Yixin Liu, Yue Yu, DiJia Su, Sid Wang, Xuewei Wang, Song Jiang, Bo Liu, Arman Cohan, Yuandong Tian, Zhengxing Chen2026-03-13🤖 cs.AI

Matching Features, Not Tokens: Energy-Based Fine-Tuning of Language Models

O artigo apresenta a Ajuste Fino Baseado em Energia (EBFT), um método que otimiza modelos de linguagem para corresponder a estatísticas de nível de sequência através de amostragem paralela e atualizações de gradiente de política, superando o ajuste fino supervisionado (SFT) e igualando métodos de aprendizado por reforço com verificação (RLVR) em precisão e eficiência.

Samy Jelassi, Mujin Kwun, Rosie Zhao, Yuanzhi Li, Nicolo Fusi, Yilun Du, Sham M. Kakade, Carles Domingo-Enrich2026-03-13🤖 cs.LG

Spatial-TTT: Streaming Visual-based Spatial Intelligence with Test-Time Training

O artigo apresenta o Spatial-TTT, um modelo que utiliza treinamento no momento da inferência (TTT) e uma arquitetura híbrida com mecanismo preditivo espacial para processar fluxos de vídeo contínuos, permitindo a manutenção e atualização eficiente de evidências espaciais de longo prazo e alcançando desempenho superior em benchmarks de inteligência espacial visual.

Fangfu Liu, Diankun Wu, Jiawei Chi, Yimo Cai, Yi-Hsin Hung, Xumin Yu, Hao Li, Han Hu, Yongming Rao, Yueqi Duan2026-03-13🤖 cs.LG

The Latent Color Subspace: Emergent Order in High-Dimensional Chaos

Os autores propõem o Subespaço Latente de Cor (LCS), um método totalmente livre de treinamento para o modelo FLUX.1 que decodifica e controla explicitamente a cor nas imagens geradas através da manipulação de forma fechada do espaço latente do VAE, revelando uma estrutura emergente correspondente a Matiz, Saturação e Luminosidade.

Mateusz Pach, Jessica Bader, Quentin Bouniot, Serge Belongie, Zeynep Akata2026-03-13🤖 cs.LG

Efficient Bayesian Updates for Deep Active Learning via Laplace Approximations

Este artigo propõe um método de atualização bayesiana eficiente baseado na aproximação de Laplace para substituir o re-treinamento custoso em aprendizado ativo profundo, permitindo a seleção de lotes diversificados e a aproximação de estratégias de seleção ótimas com baixo custo computacional.

Denis Huseljic, Marek Herde, Lukas Rauch, Paul Hahn, Zhixin Huang, Daniel Kottke, Stephan Vogt, Bernhard Sick2026-03-12🤖 cs.LG

An Updated Assessment of Reinforcement Learning for Macro Placement

Este artigo apresenta uma avaliação atualizada da abordagem de aprendizado por reforço profundo do Google Brain para posicionamento de macros, introduzindo novos benchmarks em tecnologia sub-10nm, uma linha de base aprimorada de recozimento simulado e uma análise crítica que destaca questões de reprodutibilidade e lacunas na escalabilidade e metodologia de pré-treinamento do algoritmo Circuit Training.

Chung-Kuan Cheng, Andrew B. Kahng, Sayak Kundu, Yucheng Wang, Zhiang Wang2026-03-12🤖 cs.LG

Mindstorms in Natural Language-Based Societies of Mind

Este artigo apresenta as Sociedades de Mentes Baseadas em Linguagem Natural (NLSOMs), um sistema modular onde múltiplos agentes de inteligência artificial interagem por meio de linguagem natural para resolver tarefas complexas de multimodalidade, ao mesmo tempo que explora questões fundamentais sobre a estrutura social, governança e economia dessas sociedades emergentes de mentes heterogêneas.

Mingchen Zhuge, Haozhe Liu, Francesco Faccio, Dylan R. Ashley, Róbert Csordás, Anand Gopalakrishnan, Abdullah Hamdi, Hasan Abed Al Kader Hammoud, Vincent Herrmann, Kazuki Irie, Louis Kirsch, Bing Li, Guohao Li, Shuming Liu, Jinjie Mai, Piotr Pi\k{e}kos, Aditya Ramesh, Imanol Schlag, Weimin Shi, Aleksandar Stanic, Wenyi Wang, Yuhui Wang, Mengmeng Xu, Deng-Ping Fan, Bernard Ghanem, Jürgen Schmidhuber2026-03-12💬 cs.CL

Large Language Models for Travel Behavior Prediction

Este estudo demonstra que os Grandes Modelos de Linguagem (LLMs) podem ser aplicados eficazmente à previsão de comportamento de viagem através de estratégias de *zero-shot* e de incorporação de texto, oferecendo uma alternativa flexível e eficiente em termos de dados com desempenho competitivo em relação aos modelos tradicionais.

Baichuan Mo, Hanyong Xu, Ruoyun Ma, Jung-Hoon Cho, Dingyi Zhuang, Xiaotong Guo, Jinhua Zhao2026-03-12💬 cs.CL

Communication-Efficient Multimodal Federated Learning: Joint Modality and Client Selection

O artigo propõe o MFedMC, um framework de aprendizado federado multimodal eficiente em comunicação que utiliza uma arquitetura desacoplada e seleção conjunta de clientes e modalidades para superar desafios de heterogeneidade e limitações de rede, reduzindo o overhead de comunicação em mais de 20 vezes sem comprometer a precisão.

Liangqi Yuan, Dong-Jun Han, Su Wang, Devesh Upadhyay, Christopher G. Brinton2026-03-12🤖 cs.LG