How to make the most of your masked language model for protein engineering

Este artigo propõe e valida experimentalmente um método de amostragem flexível e eficaz, baseado em busca estocástica em feixe, para otimizar modelos de linguagem mascarados (MLMs) na engenharia de proteínas, demonstrando que a escolha do método de amostragem é tão impactante quanto a seleção do modelo em campanhas de desenvolvimento de anticorpos terapêuticos.

Calvin McCarter, Nick Bhattacharya, Sebastian W. Ober, Hunter Elliott2026-03-12🧬 q-bio

Data-Driven Integration Kernels for Interpretable Nonlocal Operator Learning

Este artigo apresenta um framework de aprendizado de operadores não locais baseado em kernels de integração orientados por dados, que separa a agregação não local da previsão não linear local para criar modelos climáticos interpretáveis e eficientes, demonstrando sua eficácia na previsão de precipitação da monção sul-asiática com significativamente menos parâmetros.

Savannah L. Ferretti, Jerry Lin, Sara Shamekh, Jane W. Baldwin, Michael S. Pritchard, Tom Beucler2026-03-12🤖 cs.LG

HEAL: Hindsight Entropy-Assisted Learning for Reasoning Distillation

O artigo apresenta o HEAL, um quadro de aprendizado sem reforço que supera as limitações da destilação tradicional ao integrar mecanismos de reparo assistido por entropia, estimativa de incerteza e evolução curricular progressiva para transferir capacidades de raciocínio de modelos grandes para modelos menores, permitindo que estes aprendam a resolver problemas complexos que os modelos professores não conseguem resolver sozinhos.

Wenjing Zhang, Jiangze Yan, Jieyun Huang, Yi Shen, Shuming Shi, Ping Chen, Ning Wang, Zhaoxiang Liu, Kai Wang, Shiguo Lian2026-03-12🤖 cs.AI

Optimal Expert-Attention Allocation in Mixture-of-Experts: A Scalable Law for Dynamic Model Design

Este artigo propõe uma nova lei de escalonamento para modelos Mixture-of-Experts (MoE) que define uma relação de potência para a alocação ótima de computação entre camadas de atenção e especialistas, permitindo o ajuste preciso de arquiteturas escaláveis dentro de orçamentos de computação fixos.

Junzhuo Li, Peijie Jiang, Changxin Tian, Jia Liu, Zhiqiang Zhang, Xuming Hu2026-03-12🤖 cs.LG

On the Learning Dynamics of Two-layer Linear Networks with Label Noise SGD

Este artigo investiga a dinâmica de aprendizado de redes lineares de duas camadas treinadas com SGD e ruído de rótulos, revelando um comportamento bifásico no qual o ruído impulsiona a transição do regime "lazy" para o "rich", melhorando a generalização e oferecendo insights aplicáveis a algoritmos como SAM.

Tongcheng Zhang, Zhanpeng Zhou, Mingze Wang, Andi Han, Wei Huang, Taiji Suzuki, Junchi Yan2026-03-12🤖 cs.LG

Domain-Adaptive Health Indicator Learning with Degradation-Stage Synchronized Sampling and Cross-Domain Autoencoder

Este artigo propõe um framework de aprendizado adaptativo de domínio que combina amostragem de lotes sincronizada por estágio de degradação e um autoencoder de fusão alinhada com mecanismos de atenção cruzada para superar as discrepâncias de distribuição e capturar dependências temporais de longo prazo, resultando em indicadores de saúde significativamente mais precisos para monitoramento de condições industriais.

Jungho Choo, Hanbyeol Park, Gawon Lee, Yunkyung Park, Hyerim Bae2026-03-12🤖 cs.LG

Adaptive Active Learning for Regression via Reinforcement Learning

O artigo propõe o Weighted improved Greedy Sampling (WiGS), um método de aprendizado ativo para regressão que utiliza aprendizado por reforço para adaptar dinamicamente o equilíbrio entre exploração e investigação, superando os métodos existentes em precisão e eficiência de rotulagem, especialmente em domínios com densidade de dados irregular.

Simon D. Nguyen, Troy Russo, Kentaro Hoffman, Tyler H. McCormick2026-03-12📊 stat

GGMPs: Generalized Gaussian Mixture Processes

O artigo apresenta os Processos de Mistura Gaussiana Generalizada (GGMPs), um método baseado em Processos Gaussianos que permite a estimativa de densidades condicionais multimodais e heterocedásticas através de uma combinação de ajuste local de misturas, alinhamento de componentes e treinamento por GP, oferecendo uma solução escalável e com forma fechada para cenários complexos não gaussianos.

Vardaan Tekriwal, Mark D. Risser, Hengrui Luo, Marcus M. Noack2026-03-12🤖 cs.LG

The Curse and Blessing of Mean Bias in FP4-Quantized LLM Training

O artigo demonstra que a remoção simples do viés de média (mean bias), que é o principal fator de instabilidade numérica e anisotropia no treinamento de LLMs com baixa precisão (FP4), restaura a estabilidade e o desempenho do modelo de forma eficiente, eliminando a necessidade de métodos espectrais complexos como SVD.

Hengjie Cao, Zhendong Huang, Mengyi Chen, Yifeng Yang, Fanqi Yu, Ruijun Huang, Fang Dong, Xin Zhang, Jixian Zhou, Anrui Chen, Mingzhi Dong, Yujiang Wang, Jinlong Hou, Qin Lv, Yuan Cheng, Tun Lu, Fan Yang, Li Shang2026-03-12🤖 cs.LG

Unlearning the Unpromptable: Prompt-free Instance Unlearning in Diffusion Models

Este artigo apresenta um método inovador de "desaprendizado" baseado em surrogates para modelos de difusão que permite remover seletivamente saídas indesejadas e não passíveis de prompt (como rostos específicos ou representações culturalmente imprecisas) sem comprometer a integridade do modelo, oferecendo uma solução prática para privacidade e conformidade ética.

Kyungryeol Lee, Kyeonghyun Lee, Seongmin Hong, Byung Hyun Lee, Se Young Chun2026-03-12🤖 cs.LG

Spatio-Temporal Forecasting of Retaining Wall Deformation: Mitigating Error Accumulation via Multi-Resolution ConvLSTM Stacking Ensemble

Este estudo propõe um framework de ensemble baseado em múltiplas resoluções de ConvLSTM que integra modelos treinados com diferentes escalas temporais para mitigar a acumulação de erros e melhorar a precisão na previsão de longo prazo da deformação de paredes de contenção durante escavações em etapas.

Jihoon Kim (Department of Civil,Environmental Engineering, Hongik University, Seoul, Republic of Korea), Heejung Youn (Department of Civil,Environmental Engineering, Hongik University, Seoul, Republic of Korea)2026-03-12🤖 cs.LG