Sliding Puzzles Gym: A Scalable Benchmark for State Representation in Visual Reinforcement Learning

Die Arbeit stellt das skalierbare Benchmark-System „Sliding Puzzles Gym" (SPGym) vor, das es ermöglicht, die Herausforderungen des visuellen Repräsentationslernens in der Verstärkungslernung systematisch zu isolieren und zu untersuchen, wobei Experimente zeigen, dass aktuelle Algorithmen bei zunehmender visueller Vielfalt versagen und oft einfachere Methoden wie Daten-Augmentierung überlegen sind.

Bryan L. M. de Oliveira, Luana G. B. Martins, Bruno Brandão, Murilo L. da Luz, Telma W. de L. Soares, Luckeciano C. Melo2026-03-24🤖 cs.LG

Dirichlet process mixtures of block gg priors for model selection and prediction in linear models

Diese Arbeit stellt Dirichlet-Prozess-Mischungen aus Block-gg-Priors für die Modellauswahl und Vorhersage in linearen Modellen vor, die eine konsistente, korrelationsberücksichtigende Schätzung ermöglichen, das Lindley-Paradoxon vermeiden und in Simulationen sowie realen Daten eine hohe Entdeckungswahrscheinlichkeit bei geringen Fehlalarmen bieten.

Anupreet Porwal, Abel Rodriguez2026-03-24📊 stat

Learn from Foundation Model: Fruit Detection Model without Manual Annotation

Die Studie stellt SDM-D vor, ein annotierungsfreies Framework, das durch die Kombination von Segmentierung, Beschreibung und Matching mit Foundation-Modellen sowie anschließender Wissensdestillation hochpräzise und effiziente Modelle zur Früherkennung entwickelt, die ohne manuelle Annotationen mit gelabelten Modellen konkurrieren und Open-Set-Methoden übertreffen.

Yanan Wang, Zhenghao Fei, Ruichen Li, Yibin Ying2026-03-24🤖 cs.LG

TPCL: Task Progressive Curriculum Learning for Robust Visual Question Answering

Die Arbeit stellt TPCL vor, ein modellunabhängiges Curriculum-Learning-Framework, das durch eine schrittweise Schulung basierend auf semantischen Fragetypen und einer Optimal-Transport-basierten Schwierigkeitsmetrik die Robustheit und Generalisierungsfähigkeit von Visual Question Answering-Systemen unter Verteilungsverschiebungen und bei Datenknappheit signifikant verbessert.

Ahmed Akl, Abdelwahed Khamis, Zhe Wang, Ali Cheraghian, Sara Khalifa, Kewen Wang2026-03-24🤖 cs.LG

Efficient transformer adaptation for analog in-memory computing via low-rank adapters

Die Arbeit stellt AHWA-LoRA vor, eine effiziente Trainingsmethode, die durch die Kombination von fixierten Analog-Gewichten mit externen Low-Rank-Adaptern die Anpassung von Transformer-Modellen an Analog-In-Memory-Computing-Hardware ermöglicht, ohne die energie- und zeitintensiven Nachteile einer vollständigen Neu-Programmierung oder des kompletten Neu-Trainings.

Chen Li, Elena Ferro, Corey Lammie, Manuel Le Gallo, Irem Boybat, Bipin Rajendran2026-03-24🤖 cs.LG

Monitoring access to piped water and sanitation infrastructure in Africa at disaggregated scales using satellite imagery and self-supervised learning

Diese Studie entwickelt ein kosteneffizientes, skalierbares Modell, das Satellitenbilder und selbstüberwachtes Deep Learning nutzt, um den Zugang zu pipengebundener Wasserversorgung und Sanitäranlagen in Afrika mit hoher Genauigkeit auf disaggregierter Ebene zu überwachen und so die Verfolgung der UN-Nachhaltigkeitsziele 6.1.1 und 6.2.1 zu unterstützen.

Othmane Echchabi, Aya Lahlou, Nizar Talty, Josh Malcolm Manto, Tongshu Zheng, Ka Leung Lam2026-03-24🤖 cs.LG

Effectiveness of Distributed Gradient Descent with Local Steps for Overparameterized Models

Diese Arbeit zeigt, dass im Interpolationsregime bei überparametrisierten Modellen mit linear separierbaren Daten der aggregierte globale Modellvektor von Local-GD unabhängig von der Anzahl der lokalen Schritte exakt in Richtung des zentralisierten Modells konvergiert, was den impliziten Bias der Methode erklärt und ihre Robustheit auch bei heterogenen Daten untermauert.

Heng Zhu, Harsh Vardhan, Arya Mazumdar2026-03-24📊 stat