A Learned Proximal Alternating Minimization Algorithm and Its Induced Network for a Class of Two-block Nonconvex and Nonsmooth Optimization

Este trabalho propõe o algoritmo LPAM e sua rede neural correspondente, LPAM-net, para resolver problemas de otimização não convexa e não suave em dois blocos, garantindo convergência para pontos estacionários de Clarke e demonstrando alta eficiência e desempenho superior na reconstrução de imagens de ressonância magnética com dados subamostrados.

Yunmei Chen, Lezhi Liu, Lei Zhang2026-03-10🤖 cs.LG

Autoassociative Learning of Structural Representations for Modeling and Classification in Medical Imaging

Este artigo propõe um sistema neurosimbólico que aprende a reconstruir imagens médicas a partir de primitivas visuais, resultando em um modelo mais transparente e preciso para o diagnóstico de anomalias em imagens histológicas do que as arquiteturas convencionais de aprendizado profundo.

Zuzanna Buchnajzer, Kacper Dobek, Stanisław Hapke, Daniel Jankowski, Krzysztof Krawiec2026-03-10🤖 cs.LG

Optimizing Locomotor Task Sets in Biological Joint Moment Estimation for Hip Exoskeleton Applications

Este estudo propõe uma estratégia de otimização de tarefas locomotoras que, ao identificar um conjunto mínimo e representativo de atividades para treinar redes neurais, reduz significativamente a necessidade de coleta de dados em laboratório sem comprometer a precisão na estimativa de momentos articulares do quadril para o controle de exoesqueletos.

Jimin An, Changseob Song, Eni Halilaj + 1 more2026-03-10🤖 cs.LG

Finite Sample Bounds for Non-Parametric Regression: Optimal Sample Efficiency and Space Complexity

Este artigo propõe uma abordagem paramétrica para regressão não paramétrica que, ao representar funções suaves e suas derivadas em um espaço de dimensão finita, alcança taxas de convergência minimax ótimas sob ruído sub-Gaussiano enquanto reduz drasticamente a complexidade de memória e computação, permitindo inferência leve sem armazenar todas as amostras.

Davide Maran, Marcello Restelli2026-03-10🤖 cs.LG

Exploring Embedding Priors in Prompt-Tuning for Improved Interpretability and Control

Este artigo investiga o fenômeno de colapso de embeddings no Prompt-Tuning, demonstrando que priores de embedding influenciam significativamente a posição dos embeddings ajustados e que as trajetórias geradas formam clusters distintos para tarefas distantes, levantando questões sobre a importância de um único cluster de ativação para a generalização dos modelos de linguagem.

Sergey Sedov, Sumanth Bharadwaj Hachalli Karanam, Venu Gopal Kadamba2026-03-10🤖 cs.LG

From Pixels to Predicates: Learning Symbolic World Models via Pretrained Vision-Language Models

Este artigo propõe um método que utiliza modelos de visão e linguagem pré-treinados para aprender modelos de mundo simbólicos abstratos a partir de demonstrações curtas, permitindo que robôs generalizem para zero-shot e resolvam problemas de tomada de decisão de longo horizonte em cenários complexos e variados através de planejamento.

Ashay Athalye, Nishanth Kumar, Tom Silver, Yichao Liang, Jiuguang Wang, Tomás Lozano-Pérez, Leslie Pack Kaelbling2026-03-10🤖 cs.LG

UFGraphFR: Graph Federation Recommendation System based on User Text description features

Este artigo apresenta o UFGraphFR, um sistema de recomendação federado que supera as limitações da fragmentação de dados ao reconstruir grafos de relacionamento de usuários de forma segura no servidor, utilizando vetores semânticos derivados de descrições de texto para capturar similaridades de preferência e melhorar a precisão das recomendações sem comprometer a privacidade.

Xudong Wang, Qingbo Hao, Yingyuan Xiao2026-03-10🤖 cs.LG

Security and Quality in LLM-Generated Code: A Multi-Language, Multi-Model Analysis

Este artigo analisa a segurança e a qualidade do código gerado por modelos de linguagem de grande escala (LLMs) em múltiplas linguagens, revelando que, embora a automação seja eficaz, os modelos frequentemente falham ao adotar recursos de segurança modernos e ainda empregam métodos desatualizados, especialmente em C++ e Java 17.

Mohammed Kharma, Soohyeon Choi, Mohammed AlKhanafseh, David Mohaisen2026-03-10🤖 cs.LG

Mitigating Unintended Memorization with LoRA in Federated Learning for LLMs

Este artigo demonstra que a adaptação de baixo rank (LoRA) reduz significativamente a memorização indesejada em modelos de linguagem grandes treinados por aprendizado federado, preservando o desempenho e podendo ser combinada com outras técnicas de privacidade para proteger dados sensíveis em domínios críticos.

Thierry Bossy, Julien Vignoud, Tahseen Rabbani, Juan R. Troncoso Pastoriza, Martin Jaggi2026-03-10🤖 cs.LG