Overcoming Visual Clutter in Vision Language Action Models via Concept-Gated Visual Distillation

O artigo propõe o CGVD, um framework de inferência livre de treinamento que supera a lacuna entre precisão e raciocínio em modelos de Visão-Linguagem-Ação em ambientes desordenados, utilizando inpainting baseado em Fourier e refinamento de alvos para suprimir distrações semânticas e alcançar uma taxa de sucesso significativamente superior à dos métodos existentes.

Sangmim Song, Sarath Kodagoda, Marc Carmichael, Karthick Thiyagarajan2026-03-12⚡ eess

HEAL: Hindsight Entropy-Assisted Learning for Reasoning Distillation

O artigo apresenta o HEAL, um quadro de aprendizado sem reforço que supera as limitações da destilação tradicional ao integrar mecanismos de reparo assistido por entropia, estimativa de incerteza e evolução curricular progressiva para transferir capacidades de raciocínio de modelos grandes para modelos menores, permitindo que estes aprendam a resolver problemas complexos que os modelos professores não conseguem resolver sozinhos.

Wenjing Zhang, Jiangze Yan, Jieyun Huang, Yi Shen, Shuming Shi, Ping Chen, Ning Wang, Zhaoxiang Liu, Kai Wang, Shiguo Lian2026-03-12🤖 cs.AI

Few-Shot Adaptation to Non-Stationary Environments via Latent Trend Embedding for Robotics

Este artigo propõe um framework de adaptação com poucos exemplos para ambientes não estacionários em robótica, que estima um "ID de tendência" latente e regularizado para ajustar o sistema a mudanças ambientais sem modificar os pesos do modelo, evitando assim o esquecimento catastrófico e reduzindo custos computacionais.

Yasuyuki Fujii (College of Information Science and Engineering, Ritsumeikan University, Osaka, Japan), Emika Kameda (College of Information Science and Engineering, Ritsumeikan University, Osaka, Japan), Hiroki Fukada (Production and Technology Department, NIPPN CORPORATION, Tokyo, Japan), Yoshiki Mori (University of Osaka, Osaka, Japan), Tadashi Matsuo (National Institute of Technology, Ichinoseki College, Iwate, Japan), Nobutaka Shimada (College of Information Science and Engineering, Ritsumeikan University, Osaka, Japan)2026-03-12🤖 cs.AI

Optimal Expert-Attention Allocation in Mixture-of-Experts: A Scalable Law for Dynamic Model Design

Este artigo propõe uma nova lei de escalonamento para modelos Mixture-of-Experts (MoE) que define uma relação de potência para a alocação ótima de computação entre camadas de atenção e especialistas, permitindo o ajuste preciso de arquiteturas escaláveis dentro de orçamentos de computação fixos.

Junzhuo Li, Peijie Jiang, Changxin Tian, Jia Liu, Zhiqiang Zhang, Xuming Hu2026-03-12🤖 cs.LG

Safe Probabilistic Planning for Human-Robot Interaction using Conformal Risk Control

Este artigo apresenta um novo framework de controle probabilístico seguro para interação humano-robô que combina funções de barreira de controle com controle de risco conformal para fornecer garantias formais de segurança, ajustando dinamicamente as margens de segurança e demonstrando, em experimentos, uma redução significativa nas colisões e violações de segurança em comparação com métodos de base.

Jake Gonzales, Kazuki Mizuta, Karen Leung, Lillian J. Ratliff2026-03-12🤖 cs.AI

Verbalizing LLM's Higher-order Uncertainty via Imprecise Probabilities

Este artigo propõe novas técnicas de elicitação de incerteza baseadas em probabilidades imprecisas para capturar a incerteza de primeira e segunda ordem em Grandes Modelos de Linguagem (LLMs), superando as limitações dos métodos probabilísticos clássicos e melhorando a confiabilidade das respostas em cenários ambíguos e complexos.

Anita Yang, Krikamol Muandet, Michele Caprio, Siu Lun Chau, Masaki Adachi2026-03-12🤖 cs.AI

On the Learning Dynamics of Two-layer Linear Networks with Label Noise SGD

Este artigo investiga a dinâmica de aprendizado de redes lineares de duas camadas treinadas com SGD e ruído de rótulos, revelando um comportamento bifásico no qual o ruído impulsiona a transição do regime "lazy" para o "rich", melhorando a generalização e oferecendo insights aplicáveis a algoritmos como SAM.

Tongcheng Zhang, Zhanpeng Zhou, Mingze Wang, Andi Han, Wei Huang, Taiji Suzuki, Junchi Yan2026-03-12🤖 cs.LG