AutoResearch-RL: Perpetual Self-Evaluating Reinforcement Learning Agents for Autonomous Neural Architecture Discovery

이 논문은 인간 개입 없이 신경 아키텍처와 하이퍼파라미터를 지속적으로 탐색하고 개선하는 강화 학습 기반의 자동 연구 프레임워크인 'AutoResearch-RL'을 제안하며, 단일 GPU 환경에서 약 300 회의 반복 실험을 통해 수동으로 조정된 베이스라인과 맞먹거나 더 나은 성능을 달성하는 것을 입증했습니다.

Nilesh Jain, Rohit Yadav, Sagar Kotian, Claude AI2026-03-10🤖 cs.LG

Retrieval-Augmented Multi-scale Framework for County-Level Crop Yield Prediction Across Large Regions

이 논문은 다양한 지역과 시기에 걸쳐 발생하는 공간적 변동성과 장기적·단기적 시간적 패턴을 동시에 포착하기 위해 검색 기반 적응 전략을 통합한 새로운 다중 스케일 프레임워크를 제안하여 미국 전역의 군 단위 옥수수 수확량 예측 정확도를 크게 향상시켰다고 요약할 수 있습니다.

Yiming Sun, Qi Cheng, Licheng Liu, Runlong Yu, Yiqun Xie, Xiaowei Jia2026-03-10🤖 cs.LG

StructSAM: Structure- and Spectrum-Preserving Token Merging for Segment Anything Models

이 논문은 SAM 모델의 구조와 스펙트럼을 보존하면서 토큰 병합 시 발생하는 경계 손실과 프롬프트 정보 누출 문제를 해결하기 위해, 그라디언트 기반 토큰 에너지 점수와 그리드 기반 평탄도 선별을 활용한 'StructSAM'을 제안하여 계산 비용을 대폭 줄이면서도 정밀한 분할 성능을 유지하는 방법을 제시합니다.

Duy M. H. Nguyen, Tuan A. Tran, Duong Nguyen, Siwei Xie, Trung Q. Nguyen, Mai T. N. Truong, Daniel Palenicek, An T. Le, Michael Barz, TrungTin Nguyen, Tuan Dam, Ngan Le, Minh Vu, Khoa Doan, Vien Ngo, Pengtao Xie, James Zou, Daniel Sonntag, Jan Peters, Mathias Niepert2026-03-10🤖 cs.LG

Explainable and Hardware-Efficient Jamming Detection for 5G Networks Using the Convolutional Tsetlin Machine

이 논문은 5G 네트워크의 실시간 지능형 재밍 탐지를 위해 FPGA 에서 효율적으로 실행 가능한 경량화되고 해석 가능한 합성곱 트세틀린 머신 (CTM) 을 제안하며, 실제 5G 테스트베드 실험을 통해 기존 CNN 대비 학습 속도와 메모리 효율성을 크게 개선하면서도 유사한 탐지 성능을 입증했습니다.

Vojtech Halenka, Mohammadreza Amini, Per-Arne Andersen, Ole-Christoffer Granmo, Burak Kantarci2026-03-10🤖 cs.LG

Learning Concept Bottleneck Models from Mechanistic Explanations

이 논문은 블랙박스 모델이 학습한 개념을 희소 오토인코더와 멀티모달 LLM 을 통해 추출하고 명명하여, 기존 개념 병목 모델 (CBM) 의 예측 성능 한계를 극복하고 정보 누출을 통제된 조건에서 더 높은 정확도와 간결한 설명을 제공하는 새로운 'Mechanistic CBM(M-CBM)' 파이프라인을 제안합니다.

Antonio De Santis, Schrasing Tong, Marco Brambilla, Lalana Kagal2026-03-10🤖 cs.LG

Learning Clinical Representations Under Systematic Distribution Shift

이 논문은 훈련 데이터와 배포 환경 간의 체계적인 분포 변화를 해결하기 위해, 생리학적 신호와 환경 의존적 아티팩트를 분리하는 적대적 정규화 및 불변 위험 페널티를 결합한 새로운 표현 학습 프레임워크를 제안하여 다양한 병원 간 임상 예측 모델의 분포 외 일반화 성능과 보정 능력을 크게 향상시켰음을 보여줍니다.

Yuanyun Zhang, Shi Li2026-03-10🤖 cs.LG

AgrI Challenge: A Data-Centric AI Competition for Cross-Team Validation in Agricultural Vision

이 논문은 농업 비전 분야에서 모델의 일반화 성능을 평가하기 위해 여러 팀이 독립적으로 수집한 이질적인 데이터셋을 활용하는 'AgrI Challenge'와 교차 팀 검증 (CTV) 패러다임을 제안하며, 단일 소스 학습의 한계를 드러내고 다중 소스 협업 학습이 도메인 간 격차를 크게 줄여준다는 것을 입증합니다.

Mohammed Brahimi, Karim Laabassi, Mohamed Seghir Hadj Ameur, Aicha Boutorh, Badia Siab-Farsi, Amin Khouani, Omar Farouk Zouak, Seif Eddine Bouziane, Kheira Lakhdari, Abdelkader Nabil Benghanem2026-03-10🤖 cs.LG

Latent Generative Models with Tunable Complexity for Compressed Sensing and other Inverse Problems

이 논문은 중첩 드롭아웃 (nested dropout) 을 활용하여 확산 모델, 정규화 흐름, 변이 오토인코더의 복잡도를 조절 가능한 방식으로 개선함으로써, 압축 센싱 및 다양한 역문제에서 고정 복잡도 기반 모델보다 낮은 재구성 오차를 달성하고 이론적 분석을 제공함을 보여줍니다.

Sean Gunn, Jorio Cocola, Oliver De Candido, Vaggos Chatziafratis, Paul Hand2026-03-10🤖 cs.LG

Scaling Laws in the Tiny Regime: How Small Models Change Their Mistakes

이 논문은 100M 파라미터 미만의 '작은 모델' 영역에서 성능이 크기 증가에 따라 멱법칙을 따르지만, 오류의 구조와 보정 능력이 크게 변화하며 중간 크기 모델보다 가장 작은 모델이 더 잘 보정되는 등 에지 AI 배포를 위해서는 목표 모델 크기에서의 검증이 필수적임을 규명합니다.

Mohammed Alnemari, Rizwan Qureshi, Nader Begrazadah2026-03-10🤖 cs.LG