Spatial-TTT: Streaming Visual-based Spatial Intelligence with Test-Time Training

O artigo apresenta o Spatial-TTT, um modelo que utiliza treinamento no momento da inferência (TTT) e uma arquitetura híbrida com mecanismo preditivo espacial para processar fluxos de vídeo contínuos, permitindo a manutenção e atualização eficiente de evidências espaciais de longo prazo e alcançando desempenho superior em benchmarks de inteligência espacial visual.

Fangfu Liu, Diankun Wu, Jiawei Chi, Yimo Cai, Yi-Hsin Hung, Xumin Yu, Hao Li, Han Hu, Yongming Rao, Yueqi Duan2026-03-13🤖 cs.LG

The Latent Color Subspace: Emergent Order in High-Dimensional Chaos

Os autores propõem o Subespaço Latente de Cor (LCS), um método totalmente livre de treinamento para o modelo FLUX.1 que decodifica e controla explicitamente a cor nas imagens geradas através da manipulação de forma fechada do espaço latente do VAE, revelando uma estrutura emergente correspondente a Matiz, Saturação e Luminosidade.

Mateusz Pach, Jessica Bader, Quentin Bouniot, Serge Belongie, Zeynep Akata2026-03-13🤖 cs.LG

Efficient Bayesian Updates for Deep Active Learning via Laplace Approximations

Este artigo propõe um método de atualização bayesiana eficiente baseado na aproximação de Laplace para substituir o re-treinamento custoso em aprendizado ativo profundo, permitindo a seleção de lotes diversificados e a aproximação de estratégias de seleção ótimas com baixo custo computacional.

Denis Huseljic, Marek Herde, Lukas Rauch, Paul Hahn, Zhixin Huang, Daniel Kottke, Stephan Vogt, Bernhard Sick2026-03-12🤖 cs.LG

An Updated Assessment of Reinforcement Learning for Macro Placement

Este artigo apresenta uma avaliação atualizada da abordagem de aprendizado por reforço profundo do Google Brain para posicionamento de macros, introduzindo novos benchmarks em tecnologia sub-10nm, uma linha de base aprimorada de recozimento simulado e uma análise crítica que destaca questões de reprodutibilidade e lacunas na escalabilidade e metodologia de pré-treinamento do algoritmo Circuit Training.

Chung-Kuan Cheng, Andrew B. Kahng, Sayak Kundu, Yucheng Wang, Zhiang Wang2026-03-12🤖 cs.LG

Mindstorms in Natural Language-Based Societies of Mind

Este artigo apresenta as Sociedades de Mentes Baseadas em Linguagem Natural (NLSOMs), um sistema modular onde múltiplos agentes de inteligência artificial interagem por meio de linguagem natural para resolver tarefas complexas de multimodalidade, ao mesmo tempo que explora questões fundamentais sobre a estrutura social, governança e economia dessas sociedades emergentes de mentes heterogêneas.

Mingchen Zhuge, Haozhe Liu, Francesco Faccio, Dylan R. Ashley, Róbert Csordás, Anand Gopalakrishnan, Abdullah Hamdi, Hasan Abed Al Kader Hammoud, Vincent Herrmann, Kazuki Irie, Louis Kirsch, Bing Li, Guohao Li, Shuming Liu, Jinjie Mai, Piotr Pi\k{e}kos, Aditya Ramesh, Imanol Schlag, Weimin Shi, Aleksandar Stanic, Wenyi Wang, Yuhui Wang, Mengmeng Xu, Deng-Ping Fan, Bernard Ghanem, Jürgen Schmidhuber2026-03-12💬 cs.CL

Large Language Models for Travel Behavior Prediction

Este estudo demonstra que os Grandes Modelos de Linguagem (LLMs) podem ser aplicados eficazmente à previsão de comportamento de viagem através de estratégias de *zero-shot* e de incorporação de texto, oferecendo uma alternativa flexível e eficiente em termos de dados com desempenho competitivo em relação aos modelos tradicionais.

Baichuan Mo, Hanyong Xu, Ruoyun Ma, Jung-Hoon Cho, Dingyi Zhuang, Xiaotong Guo, Jinhua Zhao2026-03-12💬 cs.CL

Communication-Efficient Multimodal Federated Learning: Joint Modality and Client Selection

O artigo propõe o MFedMC, um framework de aprendizado federado multimodal eficiente em comunicação que utiliza uma arquitetura desacoplada e seleção conjunta de clientes e modalidades para superar desafios de heterogeneidade e limitações de rede, reduzindo o overhead de comunicação em mais de 20 vezes sem comprometer a precisão.

Liangqi Yuan, Dong-Jun Han, Su Wang, Devesh Upadhyay, Christopher G. Brinton2026-03-12🤖 cs.LG

Explainable machine learning for predicting shellfish toxicity in the Adriatic Sea using long-term monitoring data of HABs

Este estudo aplica técnicas de aprendizado de máquina explicável a um conjunto de dados de 28 anos no Golfo de Trieste para prever com precisão a toxicidade em mexilhões causada por florações de algas nocivas, identificando espécies específicas de dinoflagelados e fatores ambientais como preditores-chave para melhorar os sistemas de alerta precoce e a aquicultura sustentável.

Martin Marzidovšek, Janja Francé, Vid Podpečan + 3 more2026-03-12🤖 cs.AI

Mamba Neural Operator: Who Wins? Transformers vs. State-Space Models for PDEs

O artigo apresenta o Mamba Neural Operator (MNO), um novo framework que supera os Transformers na resolução de equações diferenciais parciais ao estabelecer uma conexão teórica entre modelos de espaço de estado estruturados e operadores neurais, permitindo uma captura mais eficaz de dinâmicas contínuas e dependências de longo alcance.

Chun-Wun Cheng, Jiahao Huang, Yi Zhang, Guang Yang, Carola-Bibiane Schönlieb, Angelica I. Aviles-Rivero2026-03-12🤖 cs.LG

Losing dimensions: Geometric memorization in generative diffusion

O artigo propõe uma teoria de memorização geométrica que demonstra como os modelos de difusão, ao enfrentar escassez de dados, passam por um colapso suave de suas dimensões latentes, condensando gradualmente a geração de novas variações em uma replicação quase pontual de exemplos de treinamento, um fenômeno distinto entre a generalização e a cópia exata.

Beatrice Achilli, Enrico Ventura, Gianluigi Silvestri, Bao Pham, Gabriel Raya, Dmitry Krotov, Carlo Lucibello, Luca Ambrogioni2026-03-12📊 stat

Enhancing Brain Source Reconstruction by Initializing 3D Neural Networks with Physical Inverse Solutions

O artigo apresenta o 3D-PIUNet, um método híbrido inovador que combina soluções físicas iniciais com redes neurais convolucionais 3D para melhorar significativamente a precisão espacial na reconstrução de fontes cerebrais a partir de sinais de EEG, superando tanto as abordagens tradicionais quanto as baseadas puramente em aprendizado de dados.

Marco Morik, Ali Hashemi, Klaus-Robert Müller, Stefan Haufe, Shinichi Nakajima2026-03-12⚡ eess