Why Reinforcement Fine-Tuning Enables MLLMs Preserve Prior Knowledge Better: A Data Perspective

Este artigo demonstra, sob uma perspectiva de dados, que o Ajuste Fino por Reforço (RFT) preserva melhor o conhecimento prévio dos Modelos de Linguagem Multimodal do que o Ajuste Fino Supervisionado (SFT), pois utiliza dados de treinamento que, ao se alinharem naturalmente com a paisagem de probabilidade do modelo base, causam menos interferência e esquecimento catastrófico.

Zhihao Zhang, Qiaole Dong, Qi Zhang + 12 more2026-03-06💻 cs

Design and Experimental Validation of Sensorless 4-Channel Bilateral Teleoperation for Low-Cost Manipulators

Este artigo apresenta e valida experimentalmente um quadro de controle bilateral de quatro canais sem sensores que permite teleoperação de alta velocidade com feedback de força em manipuladores de baixo custo, demonstrando que essa abordagem melhora significativamente o desempenho da aprendizagem por imitação em tarefas de manipulação complexas.

Koki Yamane, Yunhan Li, Masashi Konosu + 4 more2026-03-06💻 cs

Overtone: Cyclic Patch Modulation for Clean, Efficient, and Flexible Physics Emulators

O artigo apresenta o Overtone, um emulador de física baseado em transformadores que utiliza modulação cíclica dinâmica do tamanho dos patches durante a inferência para mitigar erros harmônicos sistemáticos e permitir um ajuste flexível entre precisão e custo computacional, superando os modelos de patches fixos em benchmarks de EDPs.

Payel Mukhopadhyay, Michael McCabe, Ruben Ohana + 1 more2026-03-06💻 cs

In-Training Defenses against Emergent Misalignment in Language Models

Este artigo apresenta o primeiro estudo sistemático de defesas durante o treinamento para mitigar o desalinhamento emergente em modelos de linguagem, demonstrando que intercalar dados de treinamento selecionados com base na lacuna de perplexidade entre modelos alinhados e desalinhados é a abordagem mais eficaz para prevenir comportamentos prejudiciais amplos sem comprometer o desempenho em tarefas benignas.

David Kaczér, Magnus Jørgenvåg, Clemens Vetter + 4 more2026-03-06💻 cs

LHM-Humanoid: Learning a Unified Policy for Long-Horizon Humanoid Whole-Body Loco-Manipulation in Diverse Messy Environments

O artigo apresenta o LHM-Humanoid, um framework e conjunto de dados que utiliza aprendizado por reforço e destilação para treinar uma política unificada capaz de controlar humanoides em tarefas complexas de locomoção e manipulação em ambientes desordenados e diversos, superando métodos anteriores em robustez e generalização.

Haozhuo Zhang, Jingkai Sun, Michele Caprio + 4 more2026-03-06💻 cs

Quadrotor Navigation using Reinforcement Learning with Privileged Information

Este artigo apresenta um método de navegação para quadricópteros baseado em aprendizado por reforço que utiliza mapas de tempo de chegada como informação privilegiada e uma função de perda de alinhamento de guinada para superar obstáculos grandes, alcançando uma taxa de sucesso de 86% em simulações e validação bem-sucedida em 20 voos reais em ambientes externos complexos.

Jonathan Lee, Abhishek Rathod, Kshitij Goel + 2 more2026-03-06💻 cs

Diffusion-Based Impedance Learning for Contact-Rich Manipulation Tasks

O artigo apresenta o "Diffusion-Based Impedance Learning", um framework que combina modelos generativos baseados em difusão com controle de impedância para permitir que robôs aprendam comportamentos de interação física ricos em contato, alcançando alta precisão e sucesso em tarefas complexas como inserção de pinos em furos através da adaptação online de rigidez e amortecimento.

Noah Geiger, Tamim Asfour, Neville Hogan + 1 more2026-03-06💻 cs

Conversational Speech Reveals Structural Robustness Failures in SpeechLLM Backbones

Este estudo revela que os modelos de linguagem fundamentais em sistemas de fala (SpeechLLMs) apresentam falhas de robustez estrutural ao processar conversas espontâneas, demonstrando que modelos de raciocínio tendem a suprimir indevidamente conteúdo fluente em favor da abstração semântica e que o ajuste fino, embora melhore resultados imediatos, prejudica a generalização.

Maria Teleki, Sai Janjur, Haoran Liu + 11 more2026-03-06💻 cs