ReflexiCoder: Teaching Large Language Models to Self-Reflect on Generated Code and Self-Correct It via Reinforcement Learning

이 논문은 외부 오라클이나 실행 피드백 없이도 강화 학습을 통해 생성된 코드에 대한 자기 성찰과 자기 수정 능력을 내재화한 새로운 프레임워크 'ReflexiCoder'를 제안하며, 이를 통해 1.5B~14B 크기의 오픈소스 모델 중 최고 성능을 달성하고 추론 시 토큰 효율성을 40% 향상시켰음을 보여줍니다.

Juyong Jiang, Jiasi Shen, Sunghun Kim, Kang Min Yoo, Jeonghoon Kim, Sungju Kim2026-03-09🤖 cs.LG

Reference-guided Policy Optimization for Molecular Optimization via LLM Reasoning

이 논문은 단일 참조 분자만 있는 분자 최적화 과제의 한계를 극복하기 위해, 참조 분자의 중간 추론 경로를 컨텍스트로 활용하여 탐험과 활용을 균형 있게 조율하는 '참조 기반 정책 최적화 (RePO)' 방법을 제안하고 이를 통해 기존 방법론보다 우수한 성능을 입증했습니다.

Xuan Li, Zhanke Zhou, Zongze Li, Jiangchao Yao, Yu Rong, Lu Zhang, Bo Han2026-03-09🤖 cs.AI

Stock Market Prediction Using Node Transformer Architecture Integrated with BERT Sentiment Analysis

이 논문은 BERT 기반 감정 분석과 노드 트랜스포머 아키텍처를 통합하여 주가 간 상관관계 및 시장 감정을 고려한 그래프 구조를 구축함으로써, 기존 ARIMA 및 LSTM 모델보다 월등히 낮은 오차율 (MAPE 0.80%) 과 높은 방향성 정확도를 달성한 주식 시장 예측 프레임워크를 제안합니다.

Mohammad Al Ridhawi, Mahtab Haj Ali, Hussein Al Osman2026-03-09🤖 cs.AI

Weak-SIGReg: Covariance Regularization for Stable Deep Learning

이 논문은 레이어 정규화나 잔차 연결과 같은 아키텍처적 기법 없이도 심층 신경망의 학습 붕괴를 방지하고 안정성을 확보하기 위해, LeJEPA 프레임워크에서 유래한 SIGReg를 변형하여 공분산 행렬을 타겟으로 하는 경량화된 'Weak-SIGReg' 정규화 기법을 제안하고 이를 통해 비전 트랜스포머 (ViT) 와 심층 MLP 의 학습 성능을 획기적으로 개선함을 보여줍니다.

Habibullah Akbar2026-03-09🤖 cs.LG

Addressing the Ecological Fallacy in Larger LMs with Human Context

이 논문은 대규모 언어 모델 (8B Llama) 에 대해 저자의 언어적 맥락을 고려한 HuLM 과 HuFT 기법을 적용하여 생태학적 오류를 해결함으로써, 기존 표준 미세조정 방식보다 다양한 하위 작업에서 성능을 크게 향상시킬 수 있음을 입증했습니다.

Nikita Soni, Dhruv Vijay Kunjadiya, Pratham Piyush Shah, Dikshya Mohanty, H. Andrew Schwartz, Niranjan Balasubramanian2026-03-09🤖 cs.AI

Implicit Style Conditioning: A Structured Style-Rewrite Framework for Low-Resource Character Modeling

이 논문은 데이터 부족과 스타일 분리 복잡성으로 인해 소규모 언어 모델의 역할극 성능이 제한되는 문제를 해결하기 위해, 어휘·구문·화용론적 스타일을 명시적으로 분리하고 추론 과정에서의 연쇄 사고 (CoT) 증류 기반의 암묵적 스타일 조건부 전략을 제안하여, 추론 시 추가 토큰 없이도 소비자용 하드웨어에서 대형 모델보다 뛰어난 스타일 일관성과 의미 충실도를 달성하는 효율적인 프레임워크를 제시합니다.

Chanhui Zhu2026-03-09🤖 cs.LG

Who We Are, Where We Are: Mental Health at the Intersection of Person, Situation, and Large Language Models

이 논문은 개인적 성향과 상황적 맥락의 상호작용을 기반으로 한 이론적 프레임워크와 대규모 언어 모델을 결합하여, 해석 가능성과 예측 성능을 동시에 확보하는 동적 정신 건강 평가 모델을 개발하고 그 유효성을 입증합니다.

Nikita Soni, August Håkan Nilsson, Syeda Mahwish, Vasudha Varadarajan, H. Andrew Schwartz, Ryan L. Boyd2026-03-09🤖 cs.AI

Omni-Masked Gradient Descent: Memory-Efficient Optimization via Mask Traversal with Improved Convergence

이 논문은 GPU 메모리 병목 현상을 해결하면서도 비볼록 환경에서 O~(ϵ3)\tilde{\mathcal{O}}(\epsilon^{-3})의 개선된 반복 복잡도를 보장하는 메모리 효율적 최적화 방법인 'Omni-Masked Gradient Descent (OMGD)'를 제안하고, 미세 조정 및 사전 학습 작업에서 기존 베이스라인보다 일관된 성능 향상을 입증합니다.

Hui Yang, Tao Ren, Jinyang Jiang, Wan Tian, Yijie Peng2026-03-09🤖 cs.LG