Robust Regularized Policy Iteration under Transition Uncertainty
O artigo apresenta a Robust Regularized Policy Iteration (RRPI), um novo método de aprendizado por reforço offline que formula a otimização da política como um problema robusto sob incerteza de transição, substituindo um objetivo bilevel intratável por um surrogate regularizado por KL para garantir convergência e desempenho superior em benchmarks como o D4RL.