Exploring Embedding Priors in Prompt-Tuning for Improved Interpretability and Control

Este artigo investiga o fenômeno de colapso de embeddings no Prompt-Tuning, demonstrando que priores de embedding influenciam significativamente a posição dos embeddings ajustados e que as trajetórias geradas formam clusters distintos para tarefas distantes, levantando questões sobre a importância de um único cluster de ativação para a generalização dos modelos de linguagem.

Sergey Sedov, Sumanth Bharadwaj Hachalli Karanam, Venu Gopal Kadamba2026-03-10🤖 cs.LG

From Pixels to Predicates: Learning Symbolic World Models via Pretrained Vision-Language Models

Este artigo propõe um método que utiliza modelos de visão e linguagem pré-treinados para aprender modelos de mundo simbólicos abstratos a partir de demonstrações curtas, permitindo que robôs generalizem para zero-shot e resolvam problemas de tomada de decisão de longo horizonte em cenários complexos e variados através de planejamento.

Ashay Athalye, Nishanth Kumar, Tom Silver, Yichao Liang, Jiuguang Wang, Tomás Lozano-Pérez, Leslie Pack Kaelbling2026-03-10🤖 cs.LG

UFGraphFR: Graph Federation Recommendation System based on User Text description features

Este artigo apresenta o UFGraphFR, um sistema de recomendação federado que supera as limitações da fragmentação de dados ao reconstruir grafos de relacionamento de usuários de forma segura no servidor, utilizando vetores semânticos derivados de descrições de texto para capturar similaridades de preferência e melhorar a precisão das recomendações sem comprometer a privacidade.

Xudong Wang, Qingbo Hao, Yingyuan Xiao2026-03-10🤖 cs.LG

Security and Quality in LLM-Generated Code: A Multi-Language, Multi-Model Analysis

Este artigo analisa a segurança e a qualidade do código gerado por modelos de linguagem de grande escala (LLMs) em múltiplas linguagens, revelando que, embora a automação seja eficaz, os modelos frequentemente falham ao adotar recursos de segurança modernos e ainda empregam métodos desatualizados, especialmente em C++ e Java 17.

Mohammed Kharma, Soohyeon Choi, Mohammed AlKhanafseh, David Mohaisen2026-03-10🤖 cs.LG

Mitigating Unintended Memorization with LoRA in Federated Learning for LLMs

Este artigo demonstra que a adaptação de baixo rank (LoRA) reduz significativamente a memorização indesejada em modelos de linguagem grandes treinados por aprendizado federado, preservando o desempenho e podendo ser combinada com outras técnicas de privacidade para proteger dados sensíveis em domínios críticos.

Thierry Bossy, Julien Vignoud, Tahseen Rabbani, Juan R. Troncoso Pastoriza, Martin Jaggi2026-03-10🤖 cs.LG

Language in the Flow of Time: Time-Series-Paired Texts Weaved into a Unified Temporal Narrative

O artigo apresenta o framework "Texts as Time Series" (TaTS), que aproveita as propriedades periódicas de textos pareados com séries temporais para aprimorar a previsão e imputação multimodal em modelos existentes, sem a necessidade de alterar suas arquiteturas.

Zihao Li, Xiao Lin, Zhining Liu, Jiaru Zou, Ziwei Wu, Lecheng Zheng, Dongqi Fu, Yada Zhu, Hendrik Hamann, Hanghang Tong, Jingrui He2026-03-10🤖 cs.LG

Unveiling Downstream Performance Scaling of LLMs: A Clustering-Based Perspective

Este artigo propõe o framework COD (Clustering-On-Difficulty), que agrupa tarefas por características de escalabilidade de dificuldade para prever com alta precisão o desempenho de modelos de linguagem grandes em benchmarks downstream, superando as limitações das metodologias atuais devido ao fenômeno de emergência e à variabilidade de métricas.

Chengyin Xu, Kaiyuan Chen, Xiao Li, Ke Shen, Chenggang Li2026-03-10🤖 cs.LG

A Simple and Effective Reinforcement Learning Method for Text-to-Image Diffusion Fine-tuning

Este trabalho propõe o método LOOP (Leave-One-Out PPO), uma nova abordagem de aprendizado por reforço para o ajuste fino de modelos de difusão texto-para-imagem que combina técnicas de redução de variância do REINFORCE com a robustez e eficiência amostral do PPO, superando as limitações de ambos ao alcançar um melhor equilíbrio entre eficiência de amostragem e desempenho final.

Shashank Gupta, Chaitanya Ahuja, Tsung-Yu Lin + 4 more2026-03-10🤖 cs.AI

Go Beyond Your Means: Unlearning with Per-Sample Gradient Orthogonalization

O artigo propõe o OrthoGrad, um método inovador de desaprendizagem de máquina que projeta o gradiente dos dados a serem esquecidos no subespaço ortogonal aos gradientes de um pequeno conjunto de retenção, mitigando assim a interferência e preservando o desempenho do modelo mesmo quando o conjunto de treinamento completo não está disponível.

Aviv Shamsian, Eitan Shaar, Aviv Navon, Gal Chechik, Ethan Fetaya2026-03-10🤖 cs.LG