OpenSanctions Pairs: Large-Scale Entity Matching with LLMs

O artigo apresenta o OpenSanctions Pairs, um grande conjunto de dados para correspondência de entidades derivado de sanções internacionais, demonstrando que modelos de linguagem (LLMs) superam significativamente os sistemas baseados em regras existentes, atingindo um desempenho próximo ao limite prático e sugerindo uma mudança de foco para componentes de pipeline como bloqueio e agrupamento.

Chandler Smith, Magnus Sesodia, Friedrich Lindenberg, Christian Schroeder de Witt2026-03-13💬 cs.CL

Structure-Aware Epistemic Uncertainty Quantification for Neural Operator PDE Surrogates

Este artigo propõe um esquema de quantificação de incerteza epistêmica estruturalmente consciente para operadores neurais em EDPs, que injeta estocasticidade apenas no módulo de elevação para gerar bandas de incerteza mais confiáveis, precisas e alinhadas com estruturas residuais locais, mantendo a eficiência computacional necessária para aplicações científicas.

Haoze Song, Zhihao Li, Mengyi Deng, Xin Li, Duyi Pan, Zhilu Lai, Wei Wang2026-03-13🤖 cs.LG

Fingerprinting Concepts in Data Streams with Supervised and Unsupervised Meta-Information

O artigo propõe o FiCSUM, um framework geral que utiliza um vetor dinâmico de diversas metainformações para criar "impressões digitais" de conceitos, permitindo identificar com maior precisão mudanças de conceito em fluxos de dados e superando os métodos atuais em diversos conjuntos de dados reais e sintéticos.

Ben Halstead, Yun Sing Koh, Patricia Riddle, Mykola Pechenizkiy, Albert Bifet, Russel Pears2026-03-13🤖 cs.LG

Task-Conditioned Routing Signatures in Sparse Mixture-of-Experts Transformers

Este artigo demonstra que os mecanismos de roteamento em arquiteturas Sparse Mixture-of-Experts (MoE) exibem uma estrutura sensível à tarefa, onde prompts da mesma categoria geram assinaturas de roteamento altamente similares que permitem a classificação precisa de tarefas, sugerindo que o roteamento é um componente condicional mensurável e não apenas um mecanismo de equilíbrio de carga.

Mynampati Sri Ranganadha Avinash2026-03-13🤖 cs.LG

A Learning-Based Superposition Operator for Non-Renewal Arrival Processes in Queueing Networks

Este artigo propõe um operador de superposição baseado em aprendizado profundo que, ao mapear momentos e descritores de autocorrelação de fluxos de entrada não renováveis, permite uma avaliação escalável e precisa de redes de filas com convergência de tráfego, superando as limitações das aproximações clássicas ao preservar informações de variabilidade e dependência de ordem superior.

Eliran Sherzer2026-03-13🤖 cs.LG

High-resolution weather-guided surrogate modeling for data-efficient cross-location building energy prediction

Este estudo apresenta um modelo substituto de alta resolução, orientado por dados meteorológicos semanais, que supera as limitações de generalização das abordagens anteriores ao capturar padrões recorrentes de demanda energética, permitindo prever com precisão o consumo de energia em edifícios de diferentes localizações sem a necessidade de simulações extensas em múltiplos sites.

Piragash Manmatharasan, Girma Bitsuamlak, Katarina Grolinger2026-03-13🤖 cs.LG

Co-Diffusion: An Affinity-Aware Two-Stage Latent Diffusion Framework for Generalizable Drug-Target Affinity Prediction

O artigo apresenta o Co-Diffusion, um novo framework de duas etapas baseado em difusão latente que supera as limitações de generalização em regimes de frio extremo ao alinhar embeddings de fármacos e alvos em um manifold orientado pela afinidade e aplicar difusão latente específica de modalidade como regularizador estocástico, resultando em desempenho superior na previsão de afinidade fármaco-alvo, especialmente para estruturas moleculares e famílias proteicas não vistas.

Yining Qian, Pengjie Wang, Yixiao Li, An-Yang Lu, Cheng Tan, Shuang Li, Lijun Liu2026-03-13📊 stat

Scaling Reasoning Efficiently via Relaxed On-Policy Distillation

O artigo apresenta o REOPOLD, um framework de destilação on-policy relaxada que estabiliza o treinamento ao interpretar a relação professor-aluno como recompensa de otimização de política, resultando em maior eficiência de amostragem e desempenho superior em tarefas de raciocínio matemático, visual e de agentes em comparação com abordagens anteriores.

Jongwoo Ko, Sara Abdali, Young Jin Kim, Tianyi Chen, Pashmina Cameron2026-03-13🤖 cs.LG

H2LooP Spark Preview: Continual Pretraining of Large Language Models for Low-Level Embedded Systems Code

O artigo apresenta o H2LooP Spark Preview, um pipeline de pré-treinamento contínuo que adapta o modelo de linguagem aberto OLMo-3-7B para o domínio de sistemas embarcados de baixo nível, resultando em um modelo de 7B que supera sistemas fechados de ponta em tarefas específicas de código ao ser treinado com 23,5 bilhões de tokens de dados especializados.

Amit Singh, Vedant Nipane, Pulkit Agrawal, Jatin Kishnani2026-03-13🤖 cs.LG