UFGraphFR: Graph Federation Recommendation System based on User Text description features

Este artigo apresenta o UFGraphFR, um sistema de recomendação federado que supera as limitações da fragmentação de dados ao reconstruir grafos de relacionamento de usuários de forma segura no servidor, utilizando vetores semânticos derivados de descrições de texto para capturar similaridades de preferência e melhorar a precisão das recomendações sem comprometer a privacidade.

Xudong Wang, Qingbo Hao, Yingyuan Xiao2026-03-10🤖 cs.LG

Security and Quality in LLM-Generated Code: A Multi-Language, Multi-Model Analysis

Este artigo analisa a segurança e a qualidade do código gerado por modelos de linguagem de grande escala (LLMs) em múltiplas linguagens, revelando que, embora a automação seja eficaz, os modelos frequentemente falham ao adotar recursos de segurança modernos e ainda empregam métodos desatualizados, especialmente em C++ e Java 17.

Mohammed Kharma, Soohyeon Choi, Mohammed AlKhanafseh, David Mohaisen2026-03-10🤖 cs.LG

Mitigating Unintended Memorization with LoRA in Federated Learning for LLMs

Este artigo demonstra que a adaptação de baixo rank (LoRA) reduz significativamente a memorização indesejada em modelos de linguagem grandes treinados por aprendizado federado, preservando o desempenho e podendo ser combinada com outras técnicas de privacidade para proteger dados sensíveis em domínios críticos.

Thierry Bossy, Julien Vignoud, Tahseen Rabbani, Juan R. Troncoso Pastoriza, Martin Jaggi2026-03-10🤖 cs.LG

Language in the Flow of Time: Time-Series-Paired Texts Weaved into a Unified Temporal Narrative

O artigo apresenta o framework "Texts as Time Series" (TaTS), que aproveita as propriedades periódicas de textos pareados com séries temporais para aprimorar a previsão e imputação multimodal em modelos existentes, sem a necessidade de alterar suas arquiteturas.

Zihao Li, Xiao Lin, Zhining Liu, Jiaru Zou, Ziwei Wu, Lecheng Zheng, Dongqi Fu, Yada Zhu, Hendrik Hamann, Hanghang Tong, Jingrui He2026-03-10🤖 cs.LG

Unveiling Downstream Performance Scaling of LLMs: A Clustering-Based Perspective

Este artigo propõe o framework COD (Clustering-On-Difficulty), que agrupa tarefas por características de escalabilidade de dificuldade para prever com alta precisão o desempenho de modelos de linguagem grandes em benchmarks downstream, superando as limitações das metodologias atuais devido ao fenômeno de emergência e à variabilidade de métricas.

Chengyin Xu, Kaiyuan Chen, Xiao Li, Ke Shen, Chenggang Li2026-03-10🤖 cs.LG

A Simple and Effective Reinforcement Learning Method for Text-to-Image Diffusion Fine-tuning

Este trabalho propõe o método LOOP (Leave-One-Out PPO), uma nova abordagem de aprendizado por reforço para o ajuste fino de modelos de difusão texto-para-imagem que combina técnicas de redução de variância do REINFORCE com a robustez e eficiência amostral do PPO, superando as limitações de ambos ao alcançar um melhor equilíbrio entre eficiência de amostragem e desempenho final.

Shashank Gupta, Chaitanya Ahuja, Tsung-Yu Lin + 4 more2026-03-10🤖 cs.AI

Go Beyond Your Means: Unlearning with Per-Sample Gradient Orthogonalization

O artigo propõe o OrthoGrad, um método inovador de desaprendizagem de máquina que projeta o gradiente dos dados a serem esquecidos no subespaço ortogonal aos gradientes de um pequeno conjunto de retenção, mitigando assim a interferência e preservando o desempenho do modelo mesmo quando o conjunto de treinamento completo não está disponível.

Aviv Shamsian, Eitan Shaar, Aviv Navon, Gal Chechik, Ethan Fetaya2026-03-10🤖 cs.LG

IMPACT: Intelligent Motion Planning with Acceptable Contact Trajectories via Vision-Language Models

O artigo apresenta o IMPACT, um novo framework de planejamento de movimento que utiliza Modelos Visuais-Linguísticos para inferir a semântica do ambiente e gerar mapas de custo anisotrópicos, permitindo que robôs realizem trajetórias ricas em contato de forma segura e eficiente em cenários desordenados.

Yiyang Ling, Karan Owalekar, Oluwatobiloba Adesanya, Erdem Bıyık, Daniel Seita2026-03-10🤖 cs.LG

Characterizing Nonlinear Dynamics via Smooth Prototype Equivalences

O artigo apresenta as Equivalências de Protótipos Suaves (SPE), uma estrutura baseada em redes neurais invertíveis que caracteriza o comportamento de longo prazo de sistemas dinâmicos não lineares a partir de medições esparsas e ruidosas, permitindo a identificação de estruturas invariantes e a classificação de regimes dinâmicos sem a necessidade de equações explícitas.

Roy Friedman, Noa Moriel, Matthew Ricci, Guy Pelc, Yair Weiss, Mor Nitzan2026-03-10🤖 cs.LG