ForwardFlow: Simulation only statistical inference using deep learning

Der Artikel stellt „ForwardFlow" vor, ein rein simulationsbasiertes statistisches Inferenzverfahren, das ein einziges Deep-Learning-Netzwerk nutzt, um aus simulierten Daten Parameterschätzungen zu gewinnen und dabei Eigenschaften wie endliche Stichprobengenauigkeit, Robustheit gegenüber Datenverfälschungen und die automatische Approximation komplexer Algorithmen wie des EM-Algorithmus demonstriert.

Stefan Böhringer2026-03-12📊 stat

Bayesian Optimization with Gaussian Processes to Accelerate Stationary Point Searches

Diese Arbeit stellt ein einheitliches Bayesian-Optimization-Framework mit Gauß-Prozessen vor, das die Suche nach stationären Punkten auf Potentialenergieflächen durch einen gemeinsamen Sechs-Schritte-Schleifenansatz, erweiterte Kernel-Methoden und effiziente Skalierung für hochdimensionale Systeme beschleunigt.

Rohit Goswami (Institute IMX and Lab-COSMO, École polytechnique fédérale de Lausanne)2026-03-12📊 stat

Factorized Neural Implicit DMD for Parametric Dynamics

Die Autoren stellen eine datengetriebene, modellfreie Methode namens Factorized Neural Implicit DMD vor, die eine faktorisierbare Flussoperator-Parameterisierung nutzt, um die zeitliche Entwicklung parametrischer dynamischer Systeme mit hoher Dimensionalität und Nichtlinearität durch die Entkopplung räumlicher Modi und zeitlicher Evolution präzise vorherzusagen und dabei Stabilität, Generalisierungsfähigkeit sowie spektrale Analysen zu ermöglichen.

Siyuan Chen, Zhecheng Wang, Yixin Chen, Yue Chang, Peter Yichen Chen, Eitan Grinspun, Jonathan Panuelos2026-03-12🤖 cs.LG

Cross-Species Transfer Learning for Electrophysiology-to-Transcriptomics Mapping in Cortical GABAergic Interneurons

Diese Studie demonstriert die Reproduzierbarkeit des Gouwens-Frameworks für die Abbildung von Elektrophysiologie auf Transkriptomik in GABAergen Interneuronen und zeigt, dass ein auf Mausdaten vortrainiertes, aufmerksamkeitsbasiertes BiLSTM-Modell durch Transferlernen die Vorhersagegenauigkeit für menschliche Neuronenklassen im Vergleich zu einem rein menschlichen Trainingsansatz verbessert.

Theo Schwider, Ramin Ramezani2026-03-12🧬 q-bio

Neural Field Thermal Tomography: A Differentiable Physics Framework for Non-Destructive Evaluation

Die Arbeit stellt NeFTY vor, ein differenzierbares physikalisches Framework, das mithilfe eines neuronalen Feldes und eines rigorosen numerischen Löschers die quantitative 3D-Rekonstruktion von Materialeigenschaften und die Lokalisierung von Untergrundfehlern aus transienten Oberflächentemperaturmessungen ermöglicht.

Tao Zhong, Yixun Hu, Dongzhe Zheng, Aditya Sood, Christine Allen-Blanchette2026-03-12🔬 cond-mat.mtrl-sci

XConv: Low-memory stochastic backpropagation for convolutional layers

Die Arbeit stellt XConv vor, eine nahtlos integrierbare Methode zur drastischen Reduzierung des Speicherverbrauchs beim Training von Faltungsschichten durch komprimierte Aktivierungen und stochastische Gradientenschätzung, ohne dabei die Architektur einzuschränken oder die Leistung signifikant zu beeinträchtigen.

Anirudh Thatipelli, Jeffrey Sam, Mathias Louboutin, Ali Siahkoohi, Rongrong Wang, Felix J. Herrmann2026-03-11🤖 cs.LG

A Survey on Decentralized Federated Learning

Diese Arbeit bietet eine umfassende Übersicht über dezentriertes Federated Learning (DFL) von 2018 bis 2026, klassifiziert die Methoden in traditionelle und blockchain-basierte Ansätze, entwickelt eine einheitliche, herausforderungsorientierte Taxonomie und identifiziert kritische Forschungsbedarfslücken in Bezug auf Topologie, Privatsphäre, Anreize und Modellziele.

Edoardo Gabrielli, Anthony Di Pietro, Dario Fenoglio, Giovanni Pica, Gabriele Tolomei2026-03-11🤖 cs.LG

Enhancing Computational Efficiency in Multiscale Systems Using Deep Learning of Coordinates and Flow Maps

Diese Arbeit stellt einen Deep-Learning-Ansatz vor, der durch die gemeinsame Entdeckung von Koordinaten und Flusskarten eine präzise und recheneffiziente Zeitintegration für Multiskalen-Systeme ermöglicht und dabei sowohl die Fitzhugh-Nagumo-Neuronenmodelle als auch die chaotische Kuramoto-Sivashinsky-Gleichung erfolgreich behandelt.

Asif Hamid, Danish Rafiq, Shahkar Ahmad Nahvi, Mohammad Abid Bazaz2026-03-11🤖 cs.LG

Sparse Variational Student-t Processes for Heavy-tailed Modeling

Die vorgestellte Arbeit führt Sparse Variational Student-t Processes (SVTP) ein, ein skalierbares Framework, das durch zwei neue Inferenzalgorithmen und eine natürliche Gradientenoptimierung robuste und effiziente Modellierungen für Daten mit Ausreißern und schweren Verteilungsenden ermöglicht und dabei Sparse Gaussian Processes in Genauigkeit und Konvergenzgeschwindigkeit übertrifft.

Jian Xu, Delu Zeng, John Paisley2026-03-11🤖 cs.AI

Robust Training of Neural Networks at Arbitrary Precision and Sparsity

Die Arbeit stellt ein einheitliches Framework vor, das Quantisierung und Sparsifizierung als additives Rauschen modelliert und durch eine prinzipiengeleitete Denoisings-Transformation eine stabile Gradientenbahn schafft, wodurch das Training von neuronalen Netzen mit beliebiger Präzision und Sparsity, einschließlich sub-1-Bit-Architekturen, ermöglicht wird.

Chengxi Ye, Grace Chu, Yanfeng Liu, Yichi Zhang, Lukasz Lew, Li Zhang, Mark Sandler, Andrew Howard2026-03-11🤖 cs.AI

ARLBench: Flexible and Efficient Benchmarking for Hyperparameter Optimization in Reinforcement Learning

Die Arbeit stellt ARLBench vor, einen effizienten und flexiblen Benchmark für das Hyperparameter-Optimieren in Reinforcement Learning, der durch die Auswahl repräsentativer Teilaufgaben kostspielige Vergleiche verschiedener AutoRL-Methoden auch mit begrenzten Rechenressourcen ermöglicht.

Jannis Becktepe, Julian Dierkes, Carolin Benjamins, Aditya Mohan, David Salinas, Raghu Rajan, Frank Hutter, Holger Hoos, Marius Lindauer, Theresa Eimer2026-03-11🤖 cs.LG