Geometry-Aware Probabilistic Circuits via Voronoi Tessellations

Este artigo propõe a integração de tesselações de Voronoi em circuitos probabilísticos para capturar a geometria local dos dados, abordando o desafio da perda de tratabilidade através de um framework de inferência aproximada com limites garantidos e de uma condição estrutural que recupera a inferência exata, além de introduzir uma relaxação diferenciável para aprendizado baseado em gradiente.

Sahil Sidheekh, Sriraam Natarajan2026-03-13🤖 cs.LG

Learning Transferable Sensor Models via Language-Informed Pretraining

O artigo apresenta o SLIP, um framework de pré-treinamento auto-supervisionado que alinha dados de sensores multivariados com linguagem natural para aprender representações transferíveis que superam as limitações de configurações fixas e alcançam desempenho superior em tarefas de classificação, legendagem e resposta a perguntas em diversos conjuntos de dados.

Yuliang Chen, Arvind Pillai, Yu Yvonne Wu, Tess Z. Griffin, Lisa Marsch, Michael V. Heinz, Nicholas C. Jacobson, Andrew Campbell2026-03-13🤖 cs.AI

Uncovering Locally Low-dimensional Structure in Networks by Locally Optimal Spectral Embedding

O artigo apresenta a Locally Adjacency Spectral Embedding (LASE), um método que utiliza decomposição espectral ponderada para capturar estruturas localmente de baixa dimensão em redes, superando as limitações das abordagens globais tradicionais e demonstrando ganhos teóricos e empíricos na reconstrução e visualização de dados.

Hannah Sansford, Nick Whiteley, Patrick Rubin-Delanchy2026-03-13📊 stat

Statistical and structural identifiability in representation learning

Este artigo formaliza a estabilidade de representações em aprendizado de máquina como identifiabilidade estatística e estrutural, propondo definições de quase-identificabilidade que permitem resolver ambiguidades lineares via Análise de Componentes Independentes (ICA) para alcançar o desentrelaçamento de fatores latentes em modelos como autoencoders e transformers.

Walter Nelson, Marco Fumero, Theofanis Karaletsos, Francesco Locatello2026-03-13🤖 cs.LG

Decentralized Orchestration Architecture for Fluid Computing: A Secure Distributed AI Use Case

Este artigo propõe uma arquitetura de orquestração descentralizada e agnóstica para ambientes de Computação Fluida que, ao elevar os serviços de controle de domínio a capacidades de primeira classe, viabiliza a implantação segura de Aprendizado Federado Descentralizado (DFL) multi-domínio sob ameaças bizantinas por meio de um mecanismo de detecção de anomalias chamado FU-HST.

Diego Cajaraville-Aboy, Ana Fernández-Vilas, Rebeca P. Díaz-Redondo, Manuel Fernández-Veiga, Pablo Picallo-López2026-03-13🤖 cs.LG

Deep Learning-Based Metamodeling of Nonlinear Stochastic Dynamic Systems under Parametric and Predictive Uncertainty

Este artigo propõe e valida três arquiteturas de metamodelos baseados em aprendizado profundo (MLP-LSTM, MPNN-LSTM e AE-LSTM) para prever a resposta dinâmica de sistemas estruturais não lineares de alta dimensão sob incertezas paramétricas e de cargas, demonstrando sua capacidade de gerar previsões precisas com estimativas confiáveis de incerteza preditiva.

Haimiti Atila, Seymour M. J. Spence2026-03-13🤖 cs.LG

Flowcean - Model Learning for Cyber-Physical Systems

O artigo apresenta o Flowcean, um novo framework modular e flexível que automatiza a geração de modelos de Sistemas Ciber-Físicos (CPS) por meio de aprendizado de dados, integrando diversas estratégias de aprendizado, métodos de processamento e métricas de avaliação para tornar o processo mais eficiente e acessível.

Maximilian Schmidt, Swantje Plambeck, Markus Knitt, Hendrik Rose, Goerschwin Fey, Jan Christian Wieck, Stephan Balduin2026-03-13🤖 cs.LG

Efficient Generative Modeling with Unitary Matrix Product States Using Riemannian Optimization

Este artigo apresenta uma abordagem de otimização riemanniana para treinar Estados de Produto Matricial Unitários (MPS) em modelagem generativa, demonstrando que essa arquitetura oferece maior eficiência, estabilidade e expressividade ao reduzir a ambiguidade nas atualizações de parâmetros em comparação com métodos baseados em gradiente padrão.

Haotong Duan, Zhongming Chen, Ngai Wong2026-03-13🤖 cs.LG

Frequentist Consistency of Prior-Data Fitted Networks for Causal Inference

Este trabalho demonstra que os estimadores de redes pré-treinadas em dados (PFNs) para inferência causal podem apresentar viés induzido pelo prior, mas propõe e valida uma calibração via correção posterior de um passo (OSPC) com posteriors de martingala para restaurar a consistência frequentista e garantir uma quantificação de incerteza bem calibrada para o efeito médio do tratamento.

Valentyn Melnychuk, Vahid Balazadeh, Stefan Feuerriegel, Rahul G. Krishnan2026-03-13🤖 cs.LG

Slow-Fast Inference: Training-Free Inference Acceleration via Within-Sentence Support Stability

O artigo apresenta a "Slow-Fast Inference" (SFI), uma metodologia de aceleração de inferência sem necessidade de treinamento que reduz custos computacionais em contextos longos ao alternar entre passos rápidos que reutilizam uma memória esparsa estável e passos lentos que atualizam essa memória em fronteiras semânticas, mantendo a qualidade do modelo.

Xingyu Xie, Zhaochen Yu, Yue Liao, Tao Wang, Kim-Chuan Toh, Shuicheng Yan2026-03-13🤖 cs.LG

Continual Learning with Vision-Language Models via Semantic-Geometry Preservation

O artigo propõe o SeGP-CL, um método de aprendizado contínuo para modelos visão-linguagem que preserva a geometria semântica e evita o esquecimento catastrófico ao utilizar âncoras adversariais, destilação geométrica e regularização textual, alcançando desempenho superior em benchmarks sem necessidade de exemplares.

Chiyuan He, Zihuan Qiu, Fanman Meng, Runtong Zhang, Linfeng Xu, Qingbo Wu, Hongliang Li2026-03-13🤖 cs.LG

A Multi-Label Temporal Convolutional Framework for Transcription Factor Binding Characterization

Este artigo propõe um framework de redes neurais convolucionais temporais (TCNs) para a caracterização de ligação de fatores de transcrição como um problema de classificação multirrotulada, demonstrando que essa abordagem captura eficazmente as interações cooperativas entre múltiplos fatores e revela padrões biológicos significativos.

Pietro Demurtas, Ferdinando Zanchetta, Giovanni Perini, Rita Fioresi2026-03-13🧬 q-bio

Resource-Efficient Iterative LLM-Based NAS with Feedback Memory

Este artigo propõe um pipeline de busca de arquitetura neural (NAS) eficiente em recursos que utiliza modelos de linguagem grandes (LLMs) em um ciclo fechado com memória de feedback histórica para iterativamente gerar e refinar arquiteturas de redes neurais convolucionais para classificação de imagens em uma única GPU de consumo, alcançando melhorias significativas de precisão sem necessidade de fine-tuning ou infraestrutura em nuvem.

Xiaojie Gu, Dmitry Ignatov, Radu Timofte2026-03-13🤖 cs.LG