FuseDiff: Symmetry-Preserving Joint Diffusion for Dual-Target Structure-Based Drug Design

O artigo apresenta o FuseDiff, um modelo de difusão end-to-end inovador que gera simultaneamente uma única molécula de fármaco e duas poses de ligação específicas para alvos distintos, superando as limitações dos métodos existentes ao preservar simetrias e garantir consistência topológica para o design de medicamentos de duplo alvo.

Jianliang Wu, Anjie Qiao, Zhen Wang, Zhewei Wei, Sheng Chen2026-03-09🤖 cs.LG

Machine Learning for analysis of Multiple Sclerosis cross-tissue bulk and single-cell transcriptomics data

Este estudo desenvolveu um pipeline de aprendizado de máquina explicável para integrar dados transcriptômicos de múltiplos tecidos no Esclerose Múltipla, identificando com alta precisão biomarcadores e vias patogênicas, como checkpoints imunes não canônicos e mecanismos relacionados ao vírus Epstein-Barr, que complementam as análises tradicionais de expressão diferencial.

Francesco Massafra, Samuele Punzo, Silvia Giulia Galfré, Alessandro Maglione, Simone Pernice, Stefano Forti, Simona Rolla, Marco Beccuti, Marinella Clerico, Corrado Priami, Alina Sîrbu2026-03-09🤖 cs.LG

Why Depth Matters in Parallelizable Sequence Models: A Lie Algebraic View

Este artigo utiliza uma perspectiva de controle algébrica de Lie para demonstrar teoricamente e validar empiricamente que o aumento da profundidade em modelos de sequência paralelizáveis reduz exponencialmente o erro de aproximação, estabelecendo uma correspondência direta entre a profundidade do modelo e extensões de torres de álgebras de Lie.

Gyuryang Heo, Timothy Ngotiaoco, Kazuki Irie, Samuel J. Gershman, Bernardo Sabatini2026-03-09🤖 cs.LG

Spatiotemporal Heterogeneity of AI-Driven Traffic Flow Patterns and Land Use Interaction: A GeoAI-Based Analysis of Multimodal Urban Mobility

Este estudo propõe um quadro analítico híbrido de GeoAI que integra MGWR, Random Forest e ST-GCN para modelar a heterogeneidade espaço-temporal dos fluxos de tráfego e sua interação com o uso do solo em múltiplos modos de transporte, demonstrando superioridade preditiva e fornecendo um conjunto de ferramentas interpretáveis para o planeamento urbano e de mobilidade.

Olaf Yunus Laitinen Imanov2026-03-09🤖 cs.AI

Bias In, Bias Out? Finding Unbiased Subnetworks in Vanilla Models

O artigo apresenta a BISE (Extração de Sub-redes Invariantes a Vieses), uma estratégia que identifica e isola sub-redes "livres de vieses" dentro de modelos pré-treinados convencionais através de poda, permitindo mitigar vieses algorítmicos sem a necessidade de retreinamento, ajuste fino ou dados adicionais.

Ivan Luiz De Moura Matos, Abdel Djalil Sad Saoud, Ekaterina Iakovleva, Vito Paolo Pastore, Enzo Tartaglione2026-03-09🤖 cs.LG

On the Value of Tokeniser Pretraining in Physics Foundation Models

O artigo demonstra que o pré-treinamento de tokenizadores com um objetivo de autoencoder, especialmente quando alinhado ao domínio físico específico, melhora significativamente a eficiência e a precisão dos modelos de base para física, reduzindo o erro de VRMSE em 64% em comparação com o treinamento a partir do zero.

Hadi Sotoudeh, Payel Mukhopadhyay, Ruben Ohana, Michael McCabe, Neil D. Lawrence, Shirley Ho, Miles Cranmer2026-03-09🔭 astro-ph

Behavior-dLDS: A decomposed linear dynamical systems model for neural activity partially constrained by behavior

O artigo apresenta o modelo behavior-dLDS, um sistema dinâmico linear decomposto que desentrelaça dinâmicas neurais latentes relacionadas ao comportamento de computações internas paralelas, demonstrando sua eficácia em dados simulados e sua escalabilidade para milhares de neurônios em gravações de larvas de peixe-zebra.

Eva Yezerets, En Yang, Misha B. Ahrens, Adam S. Charles2026-03-09🤖 cs.LG

RACAS: Controlling Diverse Robots With a Single Agentic System

O artigo apresenta o RACAS, uma arquitetura agênica baseada em modelos de linguagem que permite o controle em malha fechada de robôs radicalmente diferentes (terrestres, subaquáticos e de membros articulados) utilizando apenas descrições em linguagem natural, eliminando a necessidade de reprogramação ou re-treinamento para cada nova plataforma.

Dylan R. Ashley, Jan Przepióra, Yimeng Chen, Ali Abualsaud, Nurzhan Yesmagambet, Shinkyu Park, Eric Feron, Jürgen Schmidhuber2026-03-09🤖 cs.AI

Identifying Adversary Characteristics from an Observed Attack

Este artigo propõe e demonstra um framework para identificar as características do atacante a partir de um ataque observado, provando que a identificação é impossível sem conhecimento adicional e oferecendo uma abordagem agnóstica ao domínio para determinar o provável agressor, o que permite tanto a mitigação exógena quanto a melhoria do desempenho de métodos de defesa diretos.

Soyon Choi, Scott Alfeld, Meiyi Ma2026-03-09🤖 cs.LG

Making Reconstruction FID Predictive of Diffusion Generation FID

Este artigo propõe o Interpolated FID (iFID), uma métrica simples baseada na interpolação no espaço latente que supera o FID de reconstrução tradicional ao demonstrar uma forte correlação com a qualidade de geração de modelos de difusão latente, permitindo prever com precisão o desempenho desses modelos.

Tongda Xu, Mingwei He, Shady Abu-Hussein, Jose Miguel Hernandez-Lobato, Haotian Zhang, Kai Zhao, Chao Zhou, Ya-Qin Zhang, Yan Wang2026-03-09🤖 cs.LG

When Rubrics Fail: Error Enumeration as Reward in Reference-Free RL Post-Training for Virtual Try-On

Este artigo propõe a Contagem Implícita de Erros (IEC), uma abordagem de aprendizado por reforço sem referência que enumera e pondera erros em vez de verificar acertos contra um gabarito, demonstrando sua superioridade em tarefas de "virtual try-on" onde múltiplas respostas válidas tornam a geração de rubricas tradicional inviável.

Wisdom Ikezogwo, Mehmet Saygin Seyfioglu, Ranjay Krishna, Karim Bouyarmane2026-03-09🤖 cs.AI

Improved Scaling Laws via Weak-to-Strong Generalization in Random Feature Ridge Regression

Este artigo demonstra que, no contexto de regressão de crista com características aleatórias, é possível obter leis de escala significativamente melhores ao treinar um modelo forte com rótulos imperfeitos de um modelo fraco, permitindo que o aluno atinja taxas de erro ótimas mesmo quando o professor não apresenta melhoria com o aumento dos dados.

Diyuan Wu, Lehan Chen, Theodor Misiakiewicz, Marco Mondelli2026-03-09🤖 cs.LG

Parallelization Strategies for Dense LLM Deployment: Navigating Through Application-Specific Tradeoffs and Bottlenecks

Este artigo investiga estratégias de paralelização para a implantação de modelos de linguagem densos, demonstrando que o Paralelismo de Tensores (TP) otimiza a latência enquanto o Paralelismo de Pipeline (PP) favorece a vazão, e que a combinação híbrida dessas técnicas permite gerenciar eficazmente o compromisso entre esses dois indicadores de desempenho.

Burak Topcu, Musa Oguzhan Cim, Poovaiah Palangappa, Meena Arunachalam, Mahmut Taylan Kandemir2026-03-09🤖 cs.LG