Scalable Contrastive Causal Discovery under Unknown Soft Interventions

Die Autoren stellen ein skalierbares Modell zur kausalen Entdeckung vor, das unter der Annahme unbekannter weicher Interventionen durch kontrastives Lernen über Beobachtungs- und Interventionsregimes hinweg eine global konsistente kausale Struktur rekonstruiert und dabei theoretisch fundierte Verbesserungen gegenüber nicht-kontrastiven Methoden sowie eine bessere Generalisierungsfähigkeit bietet.

Mingxuan Zhang, Khushi Desai, Sopho Kevlishvili + 1 more2026-03-05🤖 cs.LG

[Re] FairDICE: A Gap Between Theory And Practice

Diese Replikationsstudie zeigt, dass der FairDICE-Algorithmus zwar theoretisch vielversprechend ist, jedoch aufgrund eines Programmfehlers und unzureichend spezifizierter Hyperparameter in der ursprünglichen Implementierung auf einfaches Behavior Cloning reduziert wurde, was nach Korrektur zwar eine Skalierbarkeit in komplexen Umgebungen bestätigt, aber eine erhebliche Überarbeitung der experimentellen Begründung erfordert.

Peter Adema, Karim Galliamov, Aleksey Evstratovskiy + 1 more2026-03-05🤖 cs.LG

Biased Generalization in Diffusion Models

Die Arbeit widerlegt die Annahme, dass das Stoppen des Trainings beim Minimum der Testverlustfunktion ausreicht, indem sie eine Phase der „voreingenommenen Generalisierung" in Diffusionsmodellen nachweist, bei der die Modelle trotz sinkender Verluste neuartige Proben zugunsten von solchen mit übermäßiger Ähnlichkeit zu den Trainingsdaten bevorzugen, was insbesondere für datenschutzkritische Anwendungen problematisch ist.

Jerome Garnier-Brun, Luca Biggio, Davide Beltrame + 2 more2026-03-05🤖 cs.LG

Minimax Optimal Strategy for Delayed Observations in Online Reinforcement Learning

Die Autoren stellen einen minimax-optimalen Algorithmus für das Reinforcement Learning mit verzögerten Zustandsbeobachtungen vor, der durch die Kombination von Augmentierung und Upper Confidence Bound eine Regret-Schranke von O~(HDmaxSAK)\tilde{\mathcal{O}}(H \sqrt{D_{\max} SAK}) erreicht und durch ein passendes unteres Limit als optimal nachgewiesen wird.

Harin Lee, Kevin Jamieson2026-03-05🤖 cs.LG

When Small Variations Become Big Failures: Reliability Challenges in Compute-in-Memory Neural Accelerators

Diese Arbeit adressiert die Zuverlässigkeitsprobleme von Rechen-im-Speicher-Neuralbeschleunigern durch eine cross-layer-Optimierung, die selektive Schreibverifikationsmechanismen und ein lernbasiertes Training mit zensiertem Rauschen kombiniert, um trotz kleiner Gerätevarianzen eine robuste und sichere Inferenz zu gewährleisten.

Yifan Qin, Jiahao Zheng, Zheyu Yan + 3 more2026-03-05🤖 cs.LG

Quantifying Ranking Instability Across Evaluation Protocol Axes in Gene Regulatory Network Benchmarking

Diese Studie präsentiert einen systematischen Diagnoserahmen zur Quantifizierung der Instabilität von Method-Rankings bei der Bewertung von Genregulationsnetzwerken, der zeigt, dass Reversal-Raten zwar unter Zufallserwartungen liegen, aber maßgeblich durch Änderungen der Diskriminationsfähigkeit der Methoden und nicht durch Basisraten-Effekte getrieben werden.

Ihor Kendiukhov2026-03-05🤖 cs.LG

Geographically-Weighted Weakly Supervised Bayesian High-Resolution Transformer for 200m Resolution Pan-Arctic Sea Ice Concentration Mapping and Uncertainty Estimation using Sentinel-1, RCM, and AMSR2 Data

Diese Studie stellt einen neuartigen, geographisch gewichteten, schwach überwachten Bayesianischen High-Resolution Transformer vor, der Sentinel-1-, RCM- und AMSR2-Daten fusioniert, um eine präzise 200-m-Auflösung der Meereiskonzentration im gesamten Arktischen Ozean mit zuverlässiger Unsicherheitsschätzung zu ermöglichen.

Mabel Heffring, Lincoln Linlin Xu2026-03-05🤖 cs.LG

Orbital Transformers for Predicting Wavefunctions in Time-Dependent Density Functional Theory

Die Arbeit stellt OrbEvo vor, ein äquivariantes Graph-Transformer-Modell, das die zeitliche Entwicklung von Elektronenwellenfunktionen in der zeitabhängigen Dichtefunktionaltheorie (TDDFT) effizient lernt und dabei externe elektrische Felder berücksichtigt, um Quantendynamiken und optische Eigenschaften von Molekülen präzise vorherzusagen.

Xuan Zhang, Haiyang Yu, Chengdong Wang + 3 more2026-03-05🔬 cond-mat.mtrl-sci

MMAI Gym for Science: Training Liquid Foundation Models for Drug Discovery

Die Arbeit stellt das MMAI Gym for Science vor, ein umfassendes Framework zum Training effizienter, auf molekulare Daten spezialisierter Liquid Foundation Models, die in der Wirkstoffentwicklung spezifische Aufgaben wie ADMET-Vorhersage und Retrosynthese trotz geringerer Größe besser bewältigen als deutlich größere allgemeine oder spezialisierte Modelle.

Maksim Kuznetsov, Zulfat Miftahutdinov, Rim Shayakhmetov + 17 more2026-03-05🤖 cs.AI

Q-Measure-Learning for Continuous State RL: Efficient Implementation and Convergence

Die vorgestellte Arbeit entwickelt den Q-Maß-Lernansatz für Reinforcement Learning in kontinuierlichen Zustandsräumen, der durch das Lernen eines gewichteten empirischen Maßes eine effiziente, speicheroptimierte Schätzung der Aktionswertfunktion ermöglicht und deren fast sichere Konvergenz sowie Approximationsfehler unter der Annahme gleichmäßiger Ergodizität theoretisch begründet.

Shengbo Wang2026-03-05🤖 cs.LG