X-MethaneWet: A Cross-scale Global Wetland Methane Emission Benchmark Dataset for Advancing Science Discovery with AI

Die Studie stellt X-MethaneWet vor, den ersten globalen Benchmark-Datensatz für Feuchtgebiet-Methanemissionen, der physikalische Simulationen mit Felddaten kombiniert, um durch den Einsatz von Deep-Learning-Modellen und Transfer-Learning-Techniken die Genauigkeit und Skalierbarkeit von KI-gestützten Klimamodellen zu verbessern.

Yiming Sun, Shuo Chen, Shengyu Chen, Chonghao Qiu, Licheng Liu, Youmi Oh, Sparkle L. Malone, Gavin McNicol, Qianlai Zhuang, Chris Smith, Yiqun Xie, Xiaowei Jia2026-03-10🤖 cs.LG

ViTaPEs: Visuotactile Position Encodings for Cross-Modal Alignment in Multimodal Transformers

Die Arbeit stellt ViTaPEs vor, einen Transformer-basierten Ansatz, der durch eine neuartige zweistufige Positionscodierung visuell-taktile Repräsentationen lernt, um die multimodale Ausrichtung zu verbessern und sowohl in verschiedenen Erkennungsaufgaben als auch bei der Generalisierung auf unbekannte Szenarien und Robotergriffaufgaben den aktuellen Stand der Technik zu übertreffen.

Fotios Lygerakis, Ozan Özdenizci, Elmar Rückert2026-03-10🤖 cs.LG

Adaptive Correction for Ensuring Conservation Laws in Neural Operators

Diese Arbeit stellt eine neuartige, adaptive Korrekturmethode vor, die durch einen leichtgewichtigen lernbaren Operator sicherstellt, dass neuronale Operatoren physikalische Erhaltungssätze strikt einhalten, wodurch sowohl die Genauigkeit als auch die Stabilität bei der Lösung von partiellen Differentialgleichungen im Vergleich zu bestehenden Ansätzen signifikant verbessert werden.

Chaoyu Liu, Yangming Li, Zhongying Deng, Chris Budd, Carola-Bibiane Schönlieb2026-03-10🤖 cs.LG

EROICA: Online Performance Troubleshooting for Large-scale Model Training

Das Paper stellt EROICA vor, ein Online-Troubleshooting-System, das durch feinkörnige Profilierung und differenzielle Beobachtbarkeit Leistungsprobleme in großen GPU-Clustern für das Training großer Modelle effizient diagnostiziert und sich bereits erfolgreich in einer Produktionsumgebung mit rund 100.000 GPUs bewährt hat.

Yu Guan, Zhiyu Yin, Haoyu Chen, Sheng Cheng, Chaojie Yang, Kun Qian, Tianyin Xu, Pengcheng Zhang, Yang Zhang, Hanyu Zhao, Yong Li, Wei Lin, Dennis Cai, Ennan Zhai2026-03-10🤖 cs.LG

BemaGANv2: Discriminator Combination Strategies for GAN-based Vocoders in Long-Term Audio Generation

Die Arbeit stellt BemaGANv2 vor, einen fortschrittlichen GAN-basierten Vocoder für die hochauflösende Langzeit-Audiogenerierung, der durch den Einsatz von AMP-Modulen im Generator und einer systematischen Evaluierung verschiedener Diskriminator-Kombinationen (insbesondere MED und MRD) zeitliche Kohärenz und harmonische Struktur über längere Zeiträume verbessert.

Taesoo Park, Mungwi Jeong, Mingyu Park, Narae Kim, Junyoung Kim, Mujung Kim, Jisang Yoo, Hoyun Lee, Sanghoon Kim, Soonchul Kwon2026-03-10🤖 cs.LG

Co-LoRA: Collaborative Model Personalization on Heterogeneous Multi-Modal Clients

Die Arbeit stellt Co-LoRA vor, eine Methode zur personalisierten Federated Learning, die durch eine aufgabenrelevante Aggregationsstrategie und ein dimensionsinvariantes Modul sowohl Daten- als auch Modellheterogenität in realistischen, multimodalen Szenarien effektiv adressiert und dabei den aktuellen Stand der Technik übertrifft.

Minhyuk Seo, Taeheon Kim, Hankook Lee, Jonghyun Choi, Tinne Tuytelaars2026-03-10🤖 cs.LG

Efficient Algorithms for Logistic Contextual Slate Bandits with Bandit Feedback

Die Autoren stellen zwei effiziente Algorithmen, Slate-GLM-OFU und Slate-GLM-TS, für das Problem der logistischen kontextuellen Slate-Banditen mit Bandit-Feedback vor, die durch lokale Planung und globales Lernen ein sublineares Regret von O~(T)\tilde{O}(\sqrt{T}) bei niedriger Rechenkomplexität erreichen und sich erfolgreich für die Auswahl von In-Context-Beispielen in Sprachmodellen einsetzen lassen.

Tanmay Goyal, Gaurav Sinha2026-03-10🤖 cs.LG

Sharpness-Aware Machine Unlearning

Die Arbeit zeigt, dass Sharpness-Aware Minimization (SAM) das Maschinelle Vergessen verbessert, indem sie die Signalstärke optimiert, und schlägt mit „Sharp MinMax" eine neue Methode vor, die durch die Aufteilung des Modells in einen SAM-basierten Lern- und einen Sharpness-Maximierungs-basierten Vergessensprozess die Entanglement zwischen behaltenen und vergessenen Daten reduziert und die Sicherheit gegen Angriffe erhöht.

Haoran Tang, Rajiv Khanna2026-03-10🤖 cs.LG