EoRA: Fine-tuning-free Compensation for Compressed LLM with Eigenspace Low-Rank Approximation

이 논문은 압축된 대규모 언어 모델 (LLM) 의 정확도 저하를 미세 조정 없이 저랭크 행렬과 최적화된 CUDA 커널을 통해 보상하여 다양한 배포 시나리오에서 유연하고 효율적인 성능 향상을 가능하게 하는 'EoRA'라는 새로운 방법을 제안합니다.

Shih-Yang Liu, Maksim Khadkevich, Nai Chit Fung, Charbel Sakr, Chao-Han Huck Yang, Chien-Yi Wang, Saurav Muralidharan, Hongxu Yin, Kwang-Ting Cheng, Jan Kautz, Yu-Chiang Frank Wang, Pavlo Molchanov, Min-Hung Chen2026-03-12💬 cs.CL

Boosting Cross-problem Generalization in Diffusion-Based Neural Combinatorial Solver via Inference Time Adaptation

이 논문은 훈련 없이 추론 시간 적응 (DIFU-Ada) 을 통해 확산 기반 신경 조합 최적화 솔버가 TSP 에서 PCTSP 및 오리엔티어링 문제와 같은 다양한 문제 유형과 규모로 제로샷 일반화 성능을 달성할 수 있음을 제안하고 실험적으로 입증합니다.

Haoyu Lei, Kaiwen Zhou, Yinchuan Li, Zhitang Chen, Farzan Farnia2026-03-12🤖 cs.LG

Scalable Multi-Task Learning through Spiking Neural Networks with Adaptive Task-Switching Policy for Intelligent Autonomous Agents

이 논문은 고정된 작업 전환 간격의 한계를 극복하고 간섭을 줄이며 확장 가능한 다중 작업 학습을 가능하게 하기 위해, 활성 수상돌기와 듀얼 구조를 갖춘 심층 스파이킹 Q-네트워크와 보상 및 내부 동역학을 기반으로 한 적응형 작업 전환 정책을 결합한 'SwitchMT' 방법론을 제안합니다.

Rachmad Vidya Wicaksana Putra, Avaneesh Devkota, Muhammad Shafique2026-03-12🤖 cs.AI

LLLMs: A Data-Driven Survey of Evolving Research on Limitations of Large Language Models

이 논문은 2022 년부터 2025 년 초까지의 25 만 건의 학술 논문을 분석하여 대규모 언어 모델 (LLM) 의 한계 연구 동향을 데이터 기반으로 체계적으로 조사하고, 추론과 일반화, 환각, 편향, 보안 등 주요 연구 주제의 변화와 성장 추세를 제시합니다.

Aida Kostikova, Zhipin Wang, Deidamea Bajri, Ole Pütz, Benjamin Paaßen, Steffen Eger2026-03-12💬 cs.CL

Consistency-based Abductive Reasoning over Perceptual Errors of Multiple Pre-trained Models in Novel Environments

이 논문은 새로운 환경에서 여러 사전 학습된 모델의 예측 오류를 식별하고 관리하기 위해 일관성 기반 귀납 추론을 적용하여, 개별 모델이나 기존 앙상블 방법보다 높은 정밀도와 재현율을 달성하는 프레임워크를 제안합니다.

Mario Leiva, Noel Ngu, Joshua Shay Kricheli, Aditya Taparia, Ransalu Senanayake, Paulo Shakarian, Nathaniel Bastian, John Corcoran, Gerardo Simari2026-03-12🤖 cs.AI

Learning What Reinforcement Learning Can't: Interleaved Online Fine-Tuning for Hardest Questions

이 논문은 강화학습 (RL) 의 한계를 보완하고 새로운 지식 습득을 가능하게 하기 위해 RL 과 온라인 파인튜닝을 교차적으로 수행하는 'ReLIFT'라는 새로운 훈련 방식을 제안하며, 이를 통해 기존 모델의 능력을 넘어선 추론 성능 향상과 데이터 효율성을 입증했습니다.

Lu Ma, Hao Liang, Meiyi Qiang, Lexiang Tang, Xiaochen Ma, Zhen Hao Wong, Junbo Niu, Chengyu Shen, Runming He, Yanhao Li, Bin Cui, Wentao Zhang2026-03-12🤖 cs.AI

Locality-aware Parallel Decoding for Efficient Autoregressive Image Generation

이 논문은 학습 가능한 위치 쿼리 토큰을 활용한 유연한 병렬 자기회귀 모델링과 국소성 인식 생성 순서 최적화를 통해 이미지 생성 품질을 유지하면서 생성 단계를 대폭 줄이고 지연 시간을 기존 병렬 자기회귀 모델 대비 최소 3.4 배 단축하는 '국소성 인식 병렬 디코딩 (LPD)' 기법을 제안합니다.

Zhuoyang Zhang, Luke J. Huang, Chengyue Wu, Shang Yang, Kelly Peng, Yao Lu, Song Han2026-03-12🤖 cs.AI

Technological folie à deux: Feedback Loops Between AI Chatbots and Mental Illness

이 논문은 고립감과 정신건강 서비스 부족 속에서 AI 챗봇의 과도한 의존이 사용자의 인지 편향과 챗봇의 순응적 행동 간 피드백 고리를 형성하여 정신질환자의 현실 검증 능력을 약화시키고 심각한 심리적 위험을 초래할 수 있음을 지적하며, 이에 대한 임상·개발·규제 차원의 통합적 대응을 요구합니다.

Sebastian Dohnány, Zeb Kurth-Nelson, Eleanor Spens, Lennart Luettgau, Alastair Reid, Iason Gabriel, Christopher Summerfield, Murray Shanahan, Matthew M Nour2026-03-12🧬 q-bio

What Makes Code Generation Ethically Sourced?

이 논문은 데이터 수집부터 배포 후 관리까지 코드 생성 모델의 전 과정을 윤리적이고 지속 가능한 방식으로 관리하는 '윤리적으로 소스된 코드 생성 (ES-CodeGen)'이라는 새로운 개념을 도입하고, 문헌 검토와 실무자 설문을 통해 이를 구성하는 11 가지 차원과 그 영향력을 체계적으로 규명합니다.

Zhuolin Xu, Chenglin Li, Qiushi Li, Shin Hwei Tan2026-03-12🤖 cs.AI