MCMC Informed Neural Emulators for Uncertainty Quantification in Dynamical Systems

Este artigo propõe uma abordagem que desacopla a quantificação de incertezas da arquitetura da rede neural, integrando a distribuição de parâmetros do modelo como entrada via amostragem MCMC para criar emuladores eficientes e agnósticos que replicam a precisão estatística dos modelos físicos com custo computacional drasticamente reduzido.

Heikki Haario, Zhi-Song Liu, Martin Simon, Hendrik Weichel2026-03-12🤖 cs.LG

Bayesian Optimization with Gaussian Processes to Accelerate Stationary Point Searches

Este artigo apresenta uma abordagem unificada de Otimização Bayesiana baseada em Processos Gaussianos, que acelera a busca por pontos estacionários em superfícies de energia potencial através de um ciclo de seis etapas adaptável, técnicas avançadas de amostragem e regularização, e uma implementação prática em Rust que demonstra a eficiência e a escalabilidade do método.

Rohit Goswami (Institute IMX and Lab-COSMO, École polytechnique fédérale de Lausanne)2026-03-12📊 stat

Factorized Neural Implicit DMD for Parametric Dynamics

O artigo propõe uma abordagem de aprendizado de máquina baseada em campos neurais fatorizados para a decomposição espectral do operador de Koopman, permitindo a previsão precisa e estável de dinâmicas físicas paramétricas complexas em horizontes temporais longos, com generalização para parâmetros não vistos e análise espectral, sem depender de equações governantes explícitas.

Siyuan Chen, Zhecheng Wang, Yixin Chen, Yue Chang, Peter Yichen Chen, Eitan Grinspun, Jonathan Panuelos2026-03-12🤖 cs.LG

Cross-Species Transfer Learning for Electrophysiology-to-Transcriptomics Mapping in Cortical GABAergic Interneurons

Este estudo valida a reprodutibilidade do mapeamento de eletrofisiologia para transcriptômica em interneurônios GABAérgicos do córtex, demonstrando que modelos de sequência baseados em atenção podem igualar baselines tradicionais e que o aprendizado por transferência de dados de camundongos para humanos melhora a previsão de subclasses celulares.

Theo Schwider, Ramin Ramezani2026-03-12🧬 q-bio

Leech Lattice Vector Quantization for Efficient LLM Compression

Este artigo apresenta a Quantização Vetorial de Rede de Leech (LLVQ), um algoritmo prático e altamente eficiente que utiliza a estrutura matemática ótima da rede de Leech em 24 dimensões para comprimir modelos de linguagem grandes (LLMs), superando os métodos atuais ao eliminar a necessidade de armazenamento explícito de códigos e oferecer desempenho de quantização de ponta.

Tycho F. A. van der Ouderaa, Mart van Baalen, Paul Whatmough, Markus Nagel2026-03-12🤖 cs.LG

Neural Field Thermal Tomography: A Differentiable Physics Framework for Non-Destructive Evaluation

O artigo apresenta o NeFTY, um framework de física diferenciável que utiliza campos neurais para realizar a reconstrução quantitativa 3D de propriedades materiais e a localização de defeitos subsuperficiais a partir de medições térmicas, superando as limitações de métodos tradicionais e redes PINNs em cenários de difusão transitória.

Tao Zhong, Yixun Hu, Dongzhe Zheng, Aditya Sood, Christine Allen-Blanchette2026-03-12🔬 cond-mat.mtrl-sci

XConv: Low-memory stochastic backpropagation for convolutional layers

O artigo propõe o XConv, uma camada de convolução de substituição direta que reduz significativamente o uso de memória durante o treinamento de redes neurais convolucionais ao armazenar ativações comprimidas e aproximar gradientes via estimativa de traço aleatória, mantendo a compatibilidade com arquiteturas existentes e garantindo desempenho comparável aos métodos de gradiente exato.

Anirudh Thatipelli, Jeffrey Sam, Mathias Louboutin, Ali Siahkoohi, Rongrong Wang, Felix J. Herrmann2026-03-11🤖 cs.LG

A Survey on Decentralized Federated Learning

Este artigo apresenta uma revisão sistemática do Aprendizado Federado Descentralizado (DFL) de 2018 a 2026, organizando os métodos em famílias arquitetônicas, propondo uma taxonomia baseada em desafios, analisando práticas de avaliação e delineando direções futuras para pesquisas em segurança, privacidade e incentivos em ambientes descentralizados.

Edoardo Gabrielli, Anthony Di Pietro, Dario Fenoglio, Giovanni Pica, Gabriele Tolomei2026-03-11🤖 cs.LG

Polynomially Over-Parameterized Convolutional Neural Networks Contain Structured Strong Winning Lottery Tickets

Este artigo supera as limitações matemáticas anteriores ao provar, utilizando avanços no problema da soma de subconjuntos multidimensional, que redes neurais convolucionais superparametrizadas contêm sub-redes estruturadas que podem aproximar redes menores sem treinamento, estabelecendo assim o primeiro limite sub-exponencial para o Hipótese da Bilhete de Loteria Forte no contexto de poda estruturada.

Arthur da Cunha, Francesco d'Amore, Emanuele Natale2026-03-11🤖 cs.LG

Provable Filter for Real-world Graph Clustering

Este artigo apresenta um novo método de agrupamento de grafos baseado em filtros prováveis que, ao identificar e separar arestas homófilas e heterófilas para capturar informações holísticas e realçar características relevantes, supera os métodos atuais tanto em grafos homófilos quanto heterófilos, oferecendo uma solução teórica e prática para a disparidade estrutural encontrada em grafos do mundo real.

Xuanting Xie, Erlin Pan, Zhao Kang, Wenyu Chen, Bingheng Li2026-03-11🤖 cs.LG

Sparse Variational Student-t Processes for Heavy-tailed Modeling

O artigo apresenta os Processos de Student-t Variacionais Esparsos (SVTP), um novo framework que estende o método de pontos induzidos esparsos para processos de Student-t, oferecendo algoritmos de inferência escaláveis e robustos que superam os Processos Gaussianos Esparsos na modelagem de dados com caudas pesadas e outliers, mantendo eficiência computacional em grandes conjuntos de dados.

Jian Xu, Delu Zeng, John Paisley2026-03-11🤖 cs.AI

Robust Training of Neural Networks at Arbitrary Precision and Sparsity

Este artigo propõe um quadro unificado que modela a quantização e a esparsificação como ruído aditivo e introduz uma transformada de dequantização por dedução para estabelecer um caminho de gradiente explícito, permitindo o treinamento estável e robusto de redes neurais em precisões arbitrárias e níveis de esparsidade, incluindo regimes sub-bit e A1W1.

Chengxi Ye, Grace Chu, Yanfeng Liu, Yichi Zhang, Lukasz Lew, Li Zhang, Mark Sandler, Andrew Howard2026-03-11🤖 cs.AI

ARLBench: Flexible and Efficient Benchmarking for Hyperparameter Optimization in Reinforcement Learning

O artigo apresenta o ARLBench, um benchmark eficiente e flexível para otimização de hiperparâmetros em Aprendizado por Reforço que permite a comparação de diversas abordagens automatizadas utilizando um subconjunto representativo de tarefas, reduzindo drasticamente a necessidade de recursos computacionais e facilitando pesquisas mais acessíveis e generalizáveis.

Jannis Becktepe, Julian Dierkes, Carolin Benjamins, Aditya Mohan, David Salinas, Raghu Rajan, Frank Hutter, Holger Hoos, Marius Lindauer, Theresa Eimer2026-03-11🤖 cs.LG

DRUPI: Dataset Reduction Using Privileged Information

O artigo apresenta o DRUPI, um método de condensação de dados que melhora o desempenho de modelos ao sintetizar informações privilegiadas (como rótulos de características ou atenção) junto com o conjunto de dados reduzido, oferecendo supervisão auxiliar que supera as abordagens tradicionais baseadas apenas em pares de dados e rótulos.

Shaobo Wang, Youxin Jiang, Tianle Niu, Yantai Yang, Ruiji Zhang, Shuhao Hu, Shuaiyu Zhang, Chenghao Sun, Weiya Li, Conghui He, Xuming Hu, Linfeng Zhang2026-03-11🤖 cs.AI