Beam-Plasma Collective Oscillations in Intense Charged-Particle Beams: Dielectric Response Theory, Langmuir Wave Dispersion, and Unsupervised Detection via Prometheus

Este artigo desenvolve uma estrutura teórica e computacional para oscilações coletivas em feixes de partículas carregadas intensas, derivando relações de dispersão de ondas de Langmuir via teoria de resposta dielétrica e validando-as com o modelo de aprendizado não supervisionado Prometheus, demonstrando a existência de modos não amortecidos acima de uma densidade crítica e a universalidade de Ising da transição feixe-plasma.

Brandon Yee, Wilson Collins, Michael Iofin, Jiayi Fu2026-03-12🔬 physics

Muscle Synergy Priors Enhance Biomechanical Fidelity in Predictive Musculoskeletal Locomotion Simulation

Este artigo apresenta um framework de aprendizado por reforço informado pela fisiologia que utiliza sinergias musculares para restringir o controle em simulações musculosqueléticas, resultando em uma maior fidelidade biomecânica e generalização na locomoção humana em diversas condições com dados experimentais limitados.

Ilseung Park (Carnegie Mellon University), Eunsik Choi (Seoul National University), Jangwhan Ahn (UNC-Chapel Hill and NC State University), Jooeun Ahn (Seoul National University)2026-03-12🤖 cs.LG

Dual Space Preconditioning for Gradient Descent in the Overparameterized Regime

Este trabalho demonstra que o Gradiente Descente Pré-condicionado no Espaço Dual, ao treinar modelos lineares superparametrizados, converge para uma solução que interpola os dados e, no caso de pré-condicionadores isotrópicos, minimiza a distância de Frobenius em relação à inicialização, comportando-se de forma análoga ao Gradiente Descente padrão.

Reza Ghane, Danil Akhtiamov, Babak Hassibi2026-03-12📊 stat

VERI-DPO: Evidence-Aware Alignment for Clinical Summarization via Claim Verification and Direct Preference Optimization

O artigo apresenta o VERI-DPO, um método de alinhamento para sumarização clínica que utiliza verificação de afirmações e Otimização Direta de Preferências (DPO) para reduzir drasticamente afirmações não suportadas e melhorar a fidelidade dos resumos de evolução hospitalar em relação às evidências dos prontuários eletrônicos.

Weixin Liu, Congning Ni, Qingyuan Song, Susannah L. Rose, Christopher Symons, Murat Kantarcioglu, Bradley A. Malin, Zhijun Yin2026-03-12💬 cs.CL

A New Tensor Network: Tubal Tensor Train and Its Applications

Este artigo apresenta a decomposição "tubal tensor train" (TTT), um novo modelo de rede tensorial que combina a álgebra do produto-t com a estrutura de baixo núcleo do formato tensor train, oferecendo escalabilidade linear no armazenamento e demonstrando eficácia em tarefas como compressão de imagens e vídeos, completamento de tensores e imageamento hiperespectral.

Salman Ahmadi-Asl, Valentin Leplat, Anh-Huy Phan, Andrzej Cichocki2026-03-12🔢 math

Resource-constrained Amazons chess decision framework integrating large language models and graph attention

Este artigo propõe um framework híbrido leve para o jogo das Amazonas que integra um Autoencoder de Atenção em Grafos e o GPT-4o-mini para superar limitações de recursos, alcançando desempenho superior ao modelo base e a métodos tradicionais através de filtragem estrutural e dados sintéticos.

Tianhao Qian, Zhuoxuan Li, Jinde Cao, Xinli Shi, Hanjie Liu, Leszek Rutkowski2026-03-12🤖 cs.AI

IH-Challenge: A Training Dataset to Improve Instruction Hierarchy on Frontier LLMs

O artigo apresenta o IH-Challenge, um conjunto de dados de aprendizado por reforço projetado para melhorar a hierarquia de instruções em modelos de linguagem de ponta, resultando em maior robustez contra ataques de segurança, redução de comportamentos inseguros e manutenção da utilidade do modelo.

Chuan Guo (Michael Pokorny), Juan Felipe Ceron Uribe (Michael Pokorny), Sicheng Zhu (Michael Pokorny), Christopher A. Choquette-Choo (Michael Pokorny), Steph Lin (Michael Pokorny), Nikhil Kandpal (Michael Pokorny), Milad Nasr (Michael Pokorny), Rai (Michael Pokorny), Sam Toyer, Miles Wang, Yaodong Yu, Alex Beutel, Kai Xiao2026-03-12🤖 cs.AI

World Model for Battery Degradation Prediction Under Non-Stationary Aging

Este artigo propõe um modelo de mundo para prever a degradação de baterias de íon-lítio sob envelhecimento não estacionário, utilizando um estado latente e uma transição dinâmica aprendida para gerar trajetórias futuras, o que reduz o erro de previsão pela metade em comparação com a regressão direta e melhora a precisão no ponto de inflexão da degradação ao incorporar restrições do Modelo de Partícula Única.

Kai Chin Lim, Khay Wai See2026-03-12⚡ eess

UAV-MARL: Multi-Agent Reinforcement Learning for Time-Critical and Dynamic Medical Supply Delivery

Este artigo apresenta um framework de aprendizado por reforço multiagente baseado em Proximal Policy Optimization (PPO) para coordenar frotas de drones na entrega dinâmica e priorizada de suprimentos médicos, demonstrando, através de dados geográficos reais, que a abordagem PPO clássica supera estratégias assíncronas e sequenciais em cenários de logística de saúde sob incerteza.

Islam Guven, Mehmet Parlak2026-03-12🤖 cs.LG

Tackling Length Inflation Without Trade-offs: Group Relative Reward Rescaling for Reinforcement Learning

O artigo apresenta o GR³ (Group Relative Reward Rescaling), uma nova abordagem de aprendizado por reforço que mitiga a inflação de comprimento em LLMs através de um mecanismo de redimensionamento multiplicativo e regularização relativa, eliminando as compensações indesejadas de métodos anteriores e mantendo o desempenho sem perdas.

Zichao Li, Jie Lou, Fangchen Dong, Zhiyuan Fan, Mengjie Ren, Hongyu Lin, Xianpei Han, Debing Zhang, Le Sun, Yaojie Lu, Xing Yu2026-03-12🤖 cs.LG

A Bipartite Graph Approach to U.S.-China Cross-Market Return Forecasting

Este artigo propõe uma estrutura de aprendizado de máquina baseada em grafos bipartidos para prever retornos entre os mercados de ações dos EUA e da China, revelando uma forte assimetria direcional onde os retornos do mercado americano possuem poder preditivo significativo sobre os retornos intradiários chineses, enquanto o efeito inverso é limitado.

Jing Liu, Maria Grith, Xiaowen Dong, Mihai Cucuringu2026-03-12💰 q-fin

Does LLM Alignment Really Need Diversity? An Empirical Study of Adapting RLVR Methods for Moral Reasoning

Este estudo empírico demonstra que, ao contrário da hipótese de que o alinhamento moral exige algoritmos focados em diversidade, métodos de maximização de recompensa (RLVR) são igualmente eficazes para o raciocínio moral, pois as respostas de alta recompensa nesse domínio formam distribuições mais concentradas do que em tarefas matemáticas.

Zhaowei Zhang, Xiaohan Liu, Xuekai Zhu, Junchao Huang, Ceyao Zhang, Zhiyuan Feng, Yaodong Yang, Xiaoyuan Yi, Xing Xie2026-03-12🤖 cs.AI