XConv: Low-memory stochastic backpropagation for convolutional layers

Die Arbeit stellt XConv vor, eine nahtlos integrierbare Methode zur drastischen Reduzierung des Speicherverbrauchs beim Training von Faltungsschichten durch komprimierte Aktivierungen und stochastische Gradientenschätzung, ohne dabei die Architektur einzuschränken oder die Leistung signifikant zu beeinträchtigen.

Anirudh Thatipelli, Jeffrey Sam, Mathias Louboutin, Ali Siahkoohi, Rongrong Wang, Felix J. HerrmannWed, 11 Ma🤖 cs.LG

A Survey on Decentralized Federated Learning

Diese Arbeit bietet eine umfassende Übersicht über dezentriertes Federated Learning (DFL) von 2018 bis 2026, klassifiziert die Methoden in traditionelle und blockchain-basierte Ansätze, entwickelt eine einheitliche, herausforderungsorientierte Taxonomie und identifiziert kritische Forschungsbedarfslücken in Bezug auf Topologie, Privatsphäre, Anreize und Modellziele.

Edoardo Gabrielli, Anthony Di Pietro, Dario Fenoglio, Giovanni Pica, Gabriele TolomeiWed, 11 Ma🤖 cs.LG

Enhancing Computational Efficiency in Multiscale Systems Using Deep Learning of Coordinates and Flow Maps

Diese Arbeit stellt einen Deep-Learning-Ansatz vor, der durch die gemeinsame Entdeckung von Koordinaten und Flusskarten eine präzise und recheneffiziente Zeitintegration für Multiskalen-Systeme ermöglicht und dabei sowohl die Fitzhugh-Nagumo-Neuronenmodelle als auch die chaotische Kuramoto-Sivashinsky-Gleichung erfolgreich behandelt.

Asif Hamid, Danish Rafiq, Shahkar Ahmad Nahvi, Mohammad Abid BazazWed, 11 Ma🤖 cs.LG

Sparse Variational Student-t Processes for Heavy-tailed Modeling

Die vorgestellte Arbeit führt Sparse Variational Student-t Processes (SVTP) ein, ein skalierbares Framework, das durch zwei neue Inferenzalgorithmen und eine natürliche Gradientenoptimierung robuste und effiziente Modellierungen für Daten mit Ausreißern und schweren Verteilungsenden ermöglicht und dabei Sparse Gaussian Processes in Genauigkeit und Konvergenzgeschwindigkeit übertrifft.

Jian Xu, Delu Zeng, John PaisleyWed, 11 Ma🤖 cs.AI

Robust Training of Neural Networks at Arbitrary Precision and Sparsity

Die Arbeit stellt ein einheitliches Framework vor, das Quantisierung und Sparsifizierung als additives Rauschen modelliert und durch eine prinzipiengeleitete Denoisings-Transformation eine stabile Gradientenbahn schafft, wodurch das Training von neuronalen Netzen mit beliebiger Präzision und Sparsity, einschließlich sub-1-Bit-Architekturen, ermöglicht wird.

Chengxi Ye, Grace Chu, Yanfeng Liu, Yichi Zhang, Lukasz Lew, Li Zhang, Mark Sandler, Andrew HowardWed, 11 Ma🤖 cs.AI

ARLBench: Flexible and Efficient Benchmarking for Hyperparameter Optimization in Reinforcement Learning

Die Arbeit stellt ARLBench vor, einen effizienten und flexiblen Benchmark für das Hyperparameter-Optimieren in Reinforcement Learning, der durch die Auswahl repräsentativer Teilaufgaben kostspielige Vergleiche verschiedener AutoRL-Methoden auch mit begrenzten Rechenressourcen ermöglicht.

Jannis Becktepe, Julian Dierkes, Carolin Benjamins, Aditya Mohan, David Salinas, Raghu Rajan, Frank Hutter, Holger Hoos, Marius Lindauer, Theresa EimerWed, 11 Ma🤖 cs.LG

Unsupervised Representation Learning from Sparse Transformation Analysis

Diese Arbeit stellt ein unüberwachtes Lernverfahren vor, das Sequenzdaten durch die Faktorisierung latenter Transformationen in spärlich aktive rotations- und potentialbasierte Vektorfelder analysiert, um damit neuartige entkoppelte Repräsentationen zu erzeugen, die sowohl unabhängige Faktoren als auch Transformationprimitive erfassen und gleichzeitig state-of-the-art-Ergebnisse in Bezug auf Datenwahrscheinlichkeit und äquivariante Fehler erzielen.

Yue Song, Thomas Anderson Keller, Yisong Yue, Pietro Perona, Max WellingWed, 11 Ma🤖 cs.LG

Learning responsibility allocations for multi-agent interactions: A differentiable optimization approach with control barrier functions

Diese Arbeit stellt einen datengesteuerten Ansatz vor, der auf Control Barrier Functions und differenzierbarer Optimierung basiert, um die Verantwortungszuweisung von Agenten in multi-agenten Interaktionen zu lernen und so ein quantitatives Verständnis dafür zu gewinnen, wie stark Akteure ihr Verhalten anpassen, um die Sicherheit anderer zu gewährleisten.

Isaac Remy, David Fridovich-Keil, Karen LeungWed, 11 Ma🤖 cs.LG

Adaptive and Stratified Subsampling for High-Dimensional Robust Estimation

Diese Arbeit stellt zwei Subsampling-Schätzer, Adaptive Importance Sampling und Stratified Sub-sampling, für die robuste hochdimensionale Regression unter schweren Verteilungen, Kontamination und zeitlicher Abhängigkeit vor, schließt die Lücke zwischen Theorie und Algorithmus durch präzise Konvergenzgarantien und ermöglicht gültige Konfidenzintervalle, wobei empirische Ergebnisse eine signifikante Fehlerreduktion im Vergleich zu herkömmlichen Methoden zeigen.

Prateek Mittal, Joohi ChauhanWed, 11 Ma🤖 cs.LG

Scalable Message Passing Neural Networks: No Need for Attention in Large Graph Representation Learning

Die Autoren stellen skalierbare Message-Passing-Neuronale Netze (SMPNNs) vor, die durch den Ersatz des aufwendigen Aufmerksamkeitsmechanismus durch standardmäßige Faltungsoperationen in Pre-Layer-Normalisierung-Blöcken tiefe, leistungsfähige Graph-Neuronale Netze für große Graphen ermöglichen und dabei theoretisch fundierte Lösungen für das Oversmoothing-Problem bieten.

Haitz Sáez de Ocáriz Borde, Artem Lukoianov, Anastasis Kratsios, Michael Bronstein, Xiaowen DongWed, 11 Ma🤖 cs.LG

Prognostics for Autonomous Deep-Space Habitat Health Management under Multiple Unknown Failure Modes

Diese Arbeit stellt einen unüberwachten Prognostik-Rahmen vor, der mittels eines Expectation-Maximization-Algorithmus und gewichteter funktionaler Regression sowohl latente Ausfallmodi identifiziert als auch informative Sensoren auswählt, um die verbleibende Nutzungsdauter in autonomen Tiefraumhabitaten unter Bedingungen ungelabelter Daten und unbekannter Ausfallmechanismen präzise vorherzusagen.

Benjamin Peters, Ayush Mohanty, Xiaolei Fang, Stephen K. Robinson, Nagi GebraeelWed, 11 Ma🤖 cs.LG

Morphological-Symmetry-Equivariant Heterogeneous Graph Neural Network for Robotic Dynamics Learning

Die Autoren stellen MS-HGNN vor, ein morphologisch-symmetrie-äquivariantes heterogenes Graph-Neurales Netzwerk, das kinematische Strukturen und morphologische Symmetrien in Roboter-Dynamikmodellen integriert, um Generalisierbarkeit und Effizienz zu steigern, was durch theoretische Beweise und Experimente mit echten und simulierten Quadruped-Robotern validiert wurde.

Fengze Xie, Sizhe Wei, Yue Song, Yisong Yue, Lu GanWed, 11 Ma🤖 cs.LG

Molecular Fingerprints Are Strong Models for Peptide Function Prediction

Die Studie widerlegt die Annahme, dass für die Vorhersage von Peptidfunktionen komplexe Modelle zur Erfassung langreichweitiger Wechselwirkungen notwendig sind, und zeigt, dass einfache, lokale molekulare Fingerabdrücke in Kombination mit LightGBM auf 132 Datensätzen State-of-the-Art-Ergebnisse erzielen, die fortschrittliche Graph-Neural-Networks und Transformer-Modelle übertreffen.

Jakub Adamczyk, Piotr Ludynia, Wojciech CzechWed, 11 Ma🤖 cs.LG