Toward Adaptive Large Language Models Structured Pruning via Hybrid-grained Weight Importance Assessment

이 논문은 구조적 가지치기 시 단일 그레인 의존성의 한계를 극복하고, 미세 및 거시 그레인의 가중치 중요도를 적응적으로 결합한 하이브리드 그레인 가중치 중요도 평가 (HyWIA) 방법을 제안하여 대규모 언어 모델의 성능 저하 없이 효율적인 압축을 가능하게 합니다.

Jun Liu, Zhenglun Kong, Pu Zhao + 9 more2026-03-12💬 cs.CL

Explainable machine learning for predicting shellfish toxicity in the Adriatic Sea using long-term monitoring data of HABs

본 연구는 28 년간의 장기 모니터링 데이터를 활용하여 랜덤 포레스트 모델과 SHAP 등의 설명 가능한 머신러닝 기법을 적용해 아드리아해 굴 독성 (DSP) 발생을 예측하고, 주요 원인 종과 환경 요인을 규명하여 조기 경보 시스템 및 지속 가능한 양식업에 기여하는 결과를 도출했습니다.

Martin Marzidovšek, Janja Francé, Vid Podpečan + 3 more2026-03-12🤖 cs.AI

Synthesizing Interpretable Control Policies through Large Language Model Guided Search

이 논문은 사전 훈련된 대규모 언어 모델 (LLM) 을 활용한 진화 알고리즘을 통해 파이썬과 같은 표준 프로그래밍 언어로 표현된 해석 가능한 제어 정책을 자동 생성하여, 블랙박스 신경망 기반 제어의 투명성 문제를 해결하고 인간이 쉽게 수정 및 적용할 수 있도록 하는 새로운 방법을 제안합니다.

Carlo Bosio, Mark W. Mueller2026-03-12⚡ eess

EoRA: Fine-tuning-free Compensation for Compressed LLM with Eigenspace Low-Rank Approximation

이 논문은 압축된 대규모 언어 모델 (LLM) 의 정확도 저하를 미세 조정 없이 저랭크 행렬과 최적화된 CUDA 커널을 통해 보상하여 다양한 배포 시나리오에서 유연하고 효율적인 성능 향상을 가능하게 하는 'EoRA'라는 새로운 방법을 제안합니다.

Shih-Yang Liu, Maksim Khadkevich, Nai Chit Fung, Charbel Sakr, Chao-Han Huck Yang, Chien-Yi Wang, Saurav Muralidharan, Hongxu Yin, Kwang-Ting Cheng, Jan Kautz, Yu-Chiang Frank Wang, Pavlo Molchanov, Min-Hung Chen2026-03-12💬 cs.CL

Boosting Cross-problem Generalization in Diffusion-Based Neural Combinatorial Solver via Inference Time Adaptation

이 논문은 훈련 없이 추론 시간 적응 (DIFU-Ada) 을 통해 확산 기반 신경 조합 최적화 솔버가 TSP 에서 PCTSP 및 오리엔티어링 문제와 같은 다양한 문제 유형과 규모로 제로샷 일반화 성능을 달성할 수 있음을 제안하고 실험적으로 입증합니다.

Haoyu Lei, Kaiwen Zhou, Yinchuan Li, Zhitang Chen, Farzan Farnia2026-03-12🤖 cs.LG

Scalable Multi-Task Learning through Spiking Neural Networks with Adaptive Task-Switching Policy for Intelligent Autonomous Agents

이 논문은 고정된 작업 전환 간격의 한계를 극복하고 간섭을 줄이며 확장 가능한 다중 작업 학습을 가능하게 하기 위해, 활성 수상돌기와 듀얼 구조를 갖춘 심층 스파이킹 Q-네트워크와 보상 및 내부 동역학을 기반으로 한 적응형 작업 전환 정책을 결합한 'SwitchMT' 방법론을 제안합니다.

Rachmad Vidya Wicaksana Putra, Avaneesh Devkota, Muhammad Shafique2026-03-12🤖 cs.AI

LLLMs: A Data-Driven Survey of Evolving Research on Limitations of Large Language Models

이 논문은 2022 년부터 2025 년 초까지의 25 만 건의 학술 논문을 분석하여 대규모 언어 모델 (LLM) 의 한계 연구 동향을 데이터 기반으로 체계적으로 조사하고, 추론과 일반화, 환각, 편향, 보안 등 주요 연구 주제의 변화와 성장 추세를 제시합니다.

Aida Kostikova, Zhipin Wang, Deidamea Bajri, Ole Pütz, Benjamin Paaßen, Steffen Eger2026-03-12💬 cs.CL

Consistency-based Abductive Reasoning over Perceptual Errors of Multiple Pre-trained Models in Novel Environments

이 논문은 새로운 환경에서 여러 사전 학습된 모델의 예측 오류를 식별하고 관리하기 위해 일관성 기반 귀납 추론을 적용하여, 개별 모델이나 기존 앙상블 방법보다 높은 정밀도와 재현율을 달성하는 프레임워크를 제안합니다.

Mario Leiva, Noel Ngu, Joshua Shay Kricheli, Aditya Taparia, Ransalu Senanayake, Paulo Shakarian, Nathaniel Bastian, John Corcoran, Gerardo Simari2026-03-12🤖 cs.AI

Learning What Reinforcement Learning Can't: Interleaved Online Fine-Tuning for Hardest Questions

이 논문은 강화학습 (RL) 의 한계를 보완하고 새로운 지식 습득을 가능하게 하기 위해 RL 과 온라인 파인튜닝을 교차적으로 수행하는 'ReLIFT'라는 새로운 훈련 방식을 제안하며, 이를 통해 기존 모델의 능력을 넘어선 추론 성능 향상과 데이터 효율성을 입증했습니다.

Lu Ma, Hao Liang, Meiyi Qiang, Lexiang Tang, Xiaochen Ma, Zhen Hao Wong, Junbo Niu, Chengyu Shen, Runming He, Yanhao Li, Bin Cui, Wentao Zhang2026-03-12🤖 cs.AI