How Does the ReLU Activation Affect the Implicit Bias of Gradient Descent on High-dimensional Neural Network Regression?

Este artigo demonstra que, para dados aleatórios de alta dimensão, o viés implícito do gradiente descendente no treinamento de modelos ReLU rasos aproxima-se com alta probabilidade da solução de norma L2 mínima, com um desvio na ordem de Θ(n/d)\Theta(\sqrt{n/d}), através de uma nova análise primal-dual que rastreia a estabilização dos padrões de ativação ReLU.

Kuo-Wei Lai, Guanghui Wang, Molei Tao + 1 more2026-03-06🔢 math

Lightweight and Scalable Transfer Learning Framework for Load Disaggregation

Este artigo apresenta o RefQuery, um framework de aprendizado por transferência leve e escalável para monitoramento não intrusivo de carga (NILM) que utiliza uma rede pré-treinada congelada e adapta-se a diferentes residências aprendendo apenas embeddings compactos por aparelho, permitindo uma desagregação precisa e eficiente em tempo real em dispositivos de borda.

L. E. Garcia-Marrero, G. Petrone, E. Monmasson2026-03-06🤖 cs.LG

Competitive Multi-Operator Reinforcement Learning for Joint Pricing and Fleet Rebalancing in AMoD Systems

Este artigo apresenta uma estrutura de aprendizado por reforço multioperador que integra a teoria da escolha discreta para modelar a dinâmica competitiva de mercado em sistemas de Mobilidade Autônoma sob Demanda (AMoD), demonstrando que a concorrência leva a preços mais baixos e padrões de reposição de frota distintos em comparação com cenários monopolistas, enquanto mantém a robustez na convergência de políticas eficazes.

Emil Kragh Toft, Carolin Schmidt, Daniele Gammelli + 1 more2026-03-06🤖 cs.LG

Non-Euclidean Gradient Descent Operates at the Edge of Stability

Este artigo propõe uma interpretação da Estabilidade Limite (Edge of Stability) através da suavidade direcional generalizada para normas não euclidianas, demonstrando experimentalmente que diversos otimizadores, incluindo descida de gradiente não euclidiana, exibem esse fenômeno de estabilização em torno de um limiar de curvatura definido pela geometria do espaço.

Rustem Islamov, Michael Crawshaw, Jeremy Cohen + 1 more2026-03-06🔢 math

Poisoning the Inner Prediction Logic of Graph Neural Networks for Clean-Label Backdoor Attacks

Este trabalho propõe o método BA-Logic, que supera as limitações de ataques de backdoor existentes em Graph Neural Networks sob o cenário de "clean-label" ao coordenar a seleção de nós envenenados com a geração de gatilhos que alteram a lógica interna de previsão do modelo, garantindo assim uma alta taxa de sucesso sem a necessidade de modificar os rótulos de treinamento.

Yuxiang Zhang, Bin Ma, Enyan Dai2026-03-06🤖 cs.AI

Measuring the Fragility of Trust: Devising Credibility Index via Explanation Stability (CIES) for Business Decision Support Systems

Este artigo apresenta o Índice de Credibilidade via Estabilidade de Explicação (CIES), uma nova métrica matematicamente fundamentada que avalia a robustez das explicações de modelos de IA em cenários de negócios reais, demonstrando que a estabilidade das justificativas de decisão é crucial e influenciada pela complexidade do modelo e pelo tratamento de desequilíbrio de classes.

Alin-Gabriel Vaduva, Simona-Vasilica Oprea, Adela Bara2026-03-06🤖 cs.AI