Class Incremental Learning with Task-Specific Batch Normalization and Out-of-Distribution Detection

Este estudo propõe um novo framework de aprendizado contínuo para classificação incremental de classes que supera a necessidade de identificadores de tarefa explícitos ao utilizar detecção de distribuição fora do padrão em cabeças de classificação específicas para prever a tarefa, combinando normalização de lote específica para tarefas para equilibrar plasticidade e estabilidade com crescimento mínimo de parâmetros.

Zhiping Zhou, Xuchen Xie, Yiqiao Qiu, Run Lin, Weishi Zheng, Ruixuan Wang2026-03-12🤖 cs.LG

Particle Trajectory Representation Learning with Masked Point Modeling

Este artigo apresenta o PoLAr-MAE, um modelo de aprendizado auto-supervisionado que utiliza modelagem de pontos mascarados para aprender representações de trajetórias de partículas em dados de câmaras de projeção temporal de argônio líquido (LArTPC), alcançando desempenho de segmentação semântica comparável ao estado da arte com apenas 100 eventos rotulados e liberando um novo conjunto de dados de 1 milhão de eventos para impulsionar a pesquisa na área.

Sam Young, Yeon-jae Jwa, Kazuhiro Terao2026-03-12⚛️ hep-ex

Graph machine learning for flight delay prediction due to holding manouver

Este estudo aplica técnicas de Aprendizado de Máquina em Grafos para prever atrasos de voos causados por manobras de espera, demonstrando que um modelo CatBoost enriquecido com características de grafos supera as Redes de Atenção Gráfica (GAT) em dados desbalanceados e oferece uma ferramenta web para simulação em tempo real, visando melhorar a eficiência operacional e a experiência dos passageiros.

Jorge L. Franco, Manoel V. Machado Neto, Filipe A. N. Verri + 1 more2026-03-12🤖 cs.LG

Logarithmic Regret for Online KL-Regularized Reinforcement Learning

Este artigo propõe um algoritmo de bandito contextual online baseado em otimismo para RL regularizado por KL, demonstrando que a paisagem de otimização benigna induzida pela regularização permite alcançar limites de arrependimento logarítmico tanto em contextos de bandito quanto em aprendizado por reforço completo, superando as limitações de trabalhos teóricos anteriores.

Heyang Zhao, Chenlu Ye, Wei Xiong + 2 more2026-03-12📊 stat

Scalable Multi-Task Learning through Spiking Neural Networks with Adaptive Task-Switching Policy for Intelligent Autonomous Agents

O artigo apresenta o SwitchMT, uma metodologia inovadora que utiliza Redes Neurais de Spiking com uma política de alternância de tarefas adaptativa para superar a interferência entre tarefas e permitir a aprendizagem multi-tarefa escalável e eficiente em agentes autônomos com recursos limitados.

Rachmad Vidya Wicaksana Putra, Avaneesh Devkota, Muhammad Shafique2026-03-12🤖 cs.AI

Panda: A pretrained forecast model for chaotic dynamics

O artigo apresenta o Panda, um modelo pré-treinado de previsão para sistemas caóticos que, ao ser treinado exclusivamente em dados sintéticos de equações diferenciais ordinárias, demonstra capacidades emergentes de previsão zero-shot em sistemas não vistos, incluindo equações diferenciais parciais e séries temporais do mundo real, preservando tanto a precisão de curto prazo quanto medidas distribucionais.

Jeffrey Lai, Anthony Bao, William Gilpin2026-03-12🌀 nlin

LLLMs: A Data-Driven Survey of Evolving Research on Limitations of Large Language Models

Este artigo apresenta uma revisão semiautomatizada e orientada por dados de pesquisas sobre as limitações de modelos de linguagem grandes (LLLMs) entre 2022 e 2025, identificando um crescimento acelerado do tema e mapeando suas principais tendências, como raciocínio, alucinação e segurança, por meio da análise de um vasto corpus de publicações.

Aida Kostikova, Zhipin Wang, Deidamea Bajri, Ole Pütz, Benjamin Paaßen, Steffen Eger2026-03-12💬 cs.CL

Consistency-based Abductive Reasoning over Perceptual Errors of Multiple Pre-trained Models in Novel Environments

Este artigo propõe um quadro de raciocínio abduzido baseado em consistência que integra previsões de múltiplos modelos pré-treinados para mitigar a degradação de desempenho em ambientes novos, utilizando regras lógicas para selecionar um subconjunto de previsões que maximize a cobertura mantendo inconsistências abaixo de um limite, resultando em ganhos significativos de precisão e recall em comparação com modelos individuais e ensembles padrão.

Mario Leiva, Noel Ngu, Joshua Shay Kricheli, Aditya Taparia, Ransalu Senanayake, Paulo Shakarian, Nathaniel Bastian, John Corcoran, Gerardo Simari2026-03-12🤖 cs.AI