MIRACL: A Diverse Meta-Reinforcement Learning for Multi-Objective Multi-Echelon Combinatorial Supply Chain Optimisation

이 논문은 다중 목표 다단계 공급망 최적화 문제를 해결하기 위해, 소량의 데이터로도 다양한 작업에 일반화될 수 있도록 구조화된 하위 문제 분해와 파레토 기반 적응 전략을 결합한 새로운 메타 다목적 강화학습 프레임워크인 MIRACL 을 제안하고 그 우수성을 입증합니다.

Rifny Rachman, Josh Tingey, Richard Allmendinger, Wei Pan, Pradyumn Shukla, Bahrul Ilmi Nasution2026-03-09🤖 cs.LG

Score-Guided Proximal Projection: A Unified Geometric Framework for Rectified Flow Editing

이 논문은 기존 방법론들의 한계를 극복하고 결정론적 최적화와 확률적 샘플링을 통합하는 'Score-Guided Proximal Projection(SGPP)' 프레임워크를 제안하여, 사전 훈련된 스코어 필드를 활용한 정규 축소 속성을 통해 분포 외 입력을 데이터 매니폴드로 효과적으로 정렬하면서도 유연한 이미지 편집과 복원을 가능하게 합니다.

Vansh Bansal, James G Scott2026-03-09🤖 cs.LG

Knowing without Acting: The Disentangled Geometry of Safety Mechanisms in Large Language Models

이 논문은 대형 언어 모델의 안전 메커니즘이 '위험 인식'과 '거부 실행'이라는 두 개의 분리된 기하학적 하위 공간으로 작동한다는 '분리된 안전 가설 (DSH)'을 제시하고, 이를 통해 거부 메커니즘을 선택적으로 무력화하는 새로운 공격 기법과 모델별 아키텍처 차이를 규명했습니다.

Jinman Wu, Yi Xie, Shen Lin, Shiqian Zhao, Xiaofeng Chen2026-03-09🤖 cs.AI

First-Order Softmax Weighted Switching Gradient Method for Distributed Stochastic Minimax Optimization with Stochastic Constraints

이 논문은 확률적 제약 하의 분산 확률적 최소 - 최대 최적화 문제를 해결하기 위해 제안된 새로운 1 차 Softmax-가중 스위칭 경사법을 통해, 부분 참여 환경에서도 기존 2 단계 방법론의 민감성과 진동 없이 최적성 및 실현성 보장을 위한 수렴 이론과 실험적 유효성을 입증합니다.

Zhankun Luo, Antesh Upadhyay, Sang Bin Moon, Abolfazl Hashemi2026-03-09🤖 cs.LG

The Coordination Gap: Alternation Metrics for Temporal Dynamics in Multi-Agent Battle of the Exes

이 논문은 다중 에이전트 협력의 질을 평가할 때 기존 성과 기반 지표가 시간적 구조를 간과하여 협력 실패를 놓칠 수 있음을 지적하고, 이를 해결하기 위해 '완벽한 교대 (Perfect Alternation)'를 기준으로 한 새로운 시간 민감성 지표 (ALT) 를 제안하며, 이를 통해 학습된 정책이 전통적 지표에서는 높은 점수를 받지만 무작위 정책보다 협력 성능이 현저히 낮을 수 있음을 실증합니다.

Nikolaos Al. Papadopoulos, Konstantinos Psannis2026-03-09🤖 cs.LG

Test-Time Adaptation via Many-Shot Prompting: Benefits, Limits, and Pitfalls

이 논문은 대규모 언어 모델의 테스트 시간 적응을 위한 다수 샷 프롬프팅의 효과와 한계를 실증적으로 분석하여, 구조화된 작업에서는 유익하지만 개방형 생성 작업에서는 선택 전략에 민감하고 효과가 제한적일 수 있음을 규명했습니다.

Shubhangi Upasani, Chen Wu, Jay Rainton, Bo Li, Changran Hu, Qizheng Zhang, Urmish Thakker2026-03-09🤖 cs.LG

ReflexiCoder: Teaching Large Language Models to Self-Reflect on Generated Code and Self-Correct It via Reinforcement Learning

이 논문은 외부 오라클이나 실행 피드백 없이도 강화 학습을 통해 생성된 코드에 대한 자기 성찰과 자기 수정 능력을 내재화한 새로운 프레임워크 'ReflexiCoder'를 제안하며, 이를 통해 1.5B~14B 크기의 오픈소스 모델 중 최고 성능을 달성하고 추론 시 토큰 효율성을 40% 향상시켰음을 보여줍니다.

Juyong Jiang, Jiasi Shen, Sunghun Kim, Kang Min Yoo, Jeonghoon Kim, Sungju Kim2026-03-09🤖 cs.LG

Reference-guided Policy Optimization for Molecular Optimization via LLM Reasoning

이 논문은 단일 참조 분자만 있는 분자 최적화 과제의 한계를 극복하기 위해, 참조 분자의 중간 추론 경로를 컨텍스트로 활용하여 탐험과 활용을 균형 있게 조율하는 '참조 기반 정책 최적화 (RePO)' 방법을 제안하고 이를 통해 기존 방법론보다 우수한 성능을 입증했습니다.

Xuan Li, Zhanke Zhou, Zongze Li, Jiangchao Yao, Yu Rong, Lu Zhang, Bo Han2026-03-09🤖 cs.AI