Continual Learning with Vision-Language Models via Semantic-Geometry Preservation

O artigo propõe o SeGP-CL, um método de aprendizado contínuo para modelos visão-linguagem que preserva a geometria semântica e evita o esquecimento catastrófico ao utilizar âncoras adversariais, destilação geométrica e regularização textual, alcançando desempenho superior em benchmarks sem necessidade de exemplares.

Chiyuan He, Zihuan Qiu, Fanman Meng, Runtong Zhang, Linfeng Xu, Qingbo Wu, Hongliang Li2026-03-13🤖 cs.LG

A Multi-Label Temporal Convolutional Framework for Transcription Factor Binding Characterization

Este artigo propõe um framework de redes neurais convolucionais temporais (TCNs) para a caracterização de ligação de fatores de transcrição como um problema de classificação multirrotulada, demonstrando que essa abordagem captura eficazmente as interações cooperativas entre múltiplos fatores e revela padrões biológicos significativos.

Pietro Demurtas, Ferdinando Zanchetta, Giovanni Perini, Rita Fioresi2026-03-13🧬 q-bio

Resource-Efficient Iterative LLM-Based NAS with Feedback Memory

Este artigo propõe um pipeline de busca de arquitetura neural (NAS) eficiente em recursos que utiliza modelos de linguagem grandes (LLMs) em um ciclo fechado com memória de feedback histórica para iterativamente gerar e refinar arquiteturas de redes neurais convolucionais para classificação de imagens em uma única GPU de consumo, alcançando melhorias significativas de precisão sem necessidade de fine-tuning ou infraestrutura em nuvem.

Xiaojie Gu, Dmitry Ignatov, Radu Timofte2026-03-13🤖 cs.LG

Cornserve: A Distributed Serving System for Any-to-Any Multimodal Models

O artigo apresenta o Cornserve, um sistema de serviço distribuído de código aberto baseado em Kubernetes para modelos multimodais "qualquer-para-qualquer", que utiliza abstração de tarefas flexível, desagregação de componentes e um modelo de execução eficiente para alcançar até 3,81 vezes maior vazão e 5,79 vezes menor latência em comparação com abordagens existentes.

Jae-Won Chung, Jeff J. Ma, Jisang Ahn, Yizhuo Liang, Akshay Jajoo, Myungjin Lee, Mosharaf Chowdhury2026-03-13🤖 cs.LG

Automatic Generation of High-Performance RL Environments

Este artigo apresenta um método reutilizável de baixo custo que utiliza prompts genéricos, verificação hierárquica e reparo iterativo assistido por agentes para traduzir automaticamente ambientes complexos de Aprendizado por Reforço em implementações de alto desempenho semanticamente equivalentes, alcançando ganhos de velocidade de até 22.320 vezes em relação a referências existentes.

Seth Karten, Rahul Dev Appapogu, Chi Jin2026-03-13🤖 cs.LG

IsoCompute Playbook: Optimally Scaling Sampling Compute for LLM RL

Este artigo estabelece regras prescritivas para a alocação ótima de recursos computacionais no pós-treinamento por reforço de LLMs, demonstrando que o número ideal de rolagens paralelas por problema aumenta e depois satura conforme o orçamento de computação, com mecanismos distintos para problemas fáceis e difíceis, enquanto o tamanho do lote de problemas pode ser ajustado em uma ampla faixa sem comprometer a estabilidade.

Zhoujun Cheng, Yutao Xie, Yuxiao Qu, Amrith Setlur, Shibo Hao, Varad Pimpalkhute, Tongtong Liang, Feng Yao, Zhengzhong Liu, Eric Xing, Virginia Smith, Ruslan Salakhutdinov, Zhiting Hu, Taylor Killian, Aviral Kumar2026-03-13🤖 cs.LG

A Quantitative Characterization of Forgetting in Post-Training

Este artigo estabelece uma caracterização quantitativa do esquecimento no pós-treinamento contínuo de modelos generativos, demonstrando teoricamente como a direção da divergência de KL (forward vs. reverse), a sobreposição geométrica das distribuições e o uso de replay determinam se ocorre colapso de massa ou deriva de componentes, fornecendo condições explícitas para mitigar esses efeitos em métodos recentes.

Krishnakumar Balasubramanian, Shiva Prasad Kasiviswanathan2026-03-13📊 stat

Proof-Carrying Materials: Falsifiable Safety Certificates for Machine-Learned Interatomic Potentials

O artigo apresenta o conceito de "Materiais com Prova de Carga" (Proof-Carrying Materials), um protocolo que combina falsificação adversária, refinamento estatístico e certificação formal no Lean 4 para garantir a segurança de potenciais interatômicos aprendidos por máquina, demonstrando que essa abordagem supera drasticamente os filtros de MLIPs únicos ao recuperar 93% dos materiais estáveis que seriam erroneamente descartados.

Abhinaba Basu, Pavan Chakraborty2026-03-13🔬 cond-mat.mtrl-sci

HiAP: A Multi-Granular Stochastic Auto-Pruning Framework for Vision Transformers

O artigo apresenta o HiAP, um framework de auto-podagem estocástica multi-granular que otimiza Vision Transformers em uma única fase de treinamento, utilizando portas Gumbel-Sigmoid hierárquicas para descobrir sub-redes eficientes que equilibram precisão e recursos computacionais sem a necessidade de heurísticas manuais ou pipelines complexos.

Andy Li, Aiden Durrant, Milan Markovic, Georgios Leontidis2026-03-13🤖 cs.LG

Temporal Straightening for Latent Planning

O artigo apresenta a "retificação temporal", uma técnica que utiliza um regularizador de curvatura para aprender representações latentes mais adequadas ao planejamento, tornando as trajetórias no espaço latente mais lineares e melhorando a estabilidade e o sucesso de algoritmos de planejamento baseados em gradiente em tarefas de alcance de objetivos.

Ying Wang, Oumayma Bounou, Gaoyue Zhou, Randall Balestriero, Tim G. J. Rudner, Yann LeCun, Mengye Ren2026-03-13🤖 cs.LG