An AI-powered Bayesian Generative Modeling Approach for Arbitrary Conditional Inference

Die vorgestellte Arbeit führt das Bayesian Generative Modeling (BGM) ein, ein einheitliches Framework, das mithilfe eines stochastischen iterativen Bayesianischen Update-Algorithmus ein generatives Modell lernt, um beliebige bedingte Inferenzen mit prinzipieller Unsicherheitsquantifizierung durchzuführen, ohne dass ein erneutes Training für unterschiedliche Konditionierungsstrukturen erforderlich ist.

Qiao Liu, Wing Hung WongWed, 11 Ma🤖 cs.AI

Sampling on Discrete Spaces with Temporal Point Processes

Die Autoren stellen einen neuartigen Multivariaten-Temporal-Point-Process-Sampler vor, der auf gekoppelten Unendlich-Server-Warteschlangen basiert, um diskrete Verteilungen effizienter zu sampeln als herkömmliche Geburts- und Sterbeprozesse, und leiten daraus ein biologisch plausibles rekurrentes neuronales Netzwerk ab.

Cameron A. Stewart (Gatsby Computational Neuroscience Unit, University College London, London, U.K), Maneesh Sahani (Gatsby Computational Neuroscience Unit, University College London, London, U.K)Wed, 11 Ma📊 stat

Multi-parameter determination in the semilinear Helmholtz equation

Dieser Artikel untersucht ein inverses Randwertproblem für die semilineare Helmholtz-Gleichung, bei dem mittels einer Linearisierung höherer Ordnung die eindeutige Bestimmung linearer und nichtlinearer Koeffizienten aus Neumann-zu-Dirichlet-Daten bewiesen und durch ein numerisches Rekonstruktionsverfahren im Rahmen der Bayes'schen Inferenz sowie Markov-Ketten-Monte-Carlo-Simulationen validiert wird.

Long-Ling Du, Zejun Sun, Li-Li Wang, Guang-Hui ZhengTue, 10 Ma🔢 math

A note on diffusive/random-walk behaviour in Metropolis--Hastings algorithms

Die Arbeit beweist, dass Metropolis-Hastings-Algorithmen mit nicht geometrisch ergodischen Vorschlägen und hoher Akzeptanzrate ebenfalls nicht geometrisch ergodisch sind, und zeigt zudem, dass bei polynomialen Schwänzen die geführte Random Walk-Methode doppelt so schnell konvergiert wie die Standard-Methode, während sie bei streng konvexen Potentialen bei großen Zuständen ballistisch mit ähnlicher Geschwindigkeit wie eine 1/2-lazy Version der geführten Methode läuft.

Yuxin Liu, Peiyi Zhou, Samuel LivingstoneTue, 10 Ma🔢 math

Conditional Local Importance by Quantile Expectations

Die Arbeit stellt CLIQUE vor, eine neue modellunabhängige Methode zur Berechnung der lokalen Variablenwichtigkeit, die im Gegensatz zu etablierten Verfahren wie LIME und SHAP lokale Abhängigkeiten und Interaktionen erfasst, insbesondere bei Mehrklassen-Klassifikationsproblemen, und Verzerrungen in Bereichen reduziert, in denen Variablen keinen Einfluss auf die Antwort haben.

Kelvyn K. Bladen, Adele Cutler, D. Richard Cutler, Kevin R. MoonThu, 12 Ma📊 stat

Optimally balancing exploration and exploitation to automate multi-fidelity statistical estimation

Dieses Paper stellt einen adaptiven Algorithmus vor, der die Ressourcen zwischen der Schätzung von Orakel-Statistiken und dem Aufbau eines Multi-Fidelity-Schätzers optimal ausbalanciert, um die Rechenkosten zu senken und gleichzeitig eine Genauigkeit zu erreichen, die mit der theoretisch optimalen Zuordnung vergleichbar ist.

Thomas Dixon, Alex Gorodetsky, John Jakeman, Akil Narayan, Yiming XuThu, 12 Ma📊 stat

Two-sample comparison through additive tree models for density ratios

Diese Arbeit stellt additive Baummodelle mit einer neuartigen „Balancing-Loss"-Funktion vor, die eine effiziente Schätzung von Dichteverhältnissen mittels etablierter Algorithmen wie Gradient Boosting sowie eine Bayessche Inferenz zur Unsicherheitsquantifizierung ermöglicht, was insbesondere bei hochdimensionalen und datenlimitierten Verteilungen sowie zur Bewertung generativer Modelle vorteilhaft ist.

Naoki Awaya, Yuliang Xu, Li MaThu, 12 Ma📊 stat

Optimising two-block averaging kernels to speed up Markov chains

Diese Arbeit untersucht die Optimierung von Zwei-Block-Partitionen zur Beschleunigung der Mischung endlicher Markov-Ketten unter Gruppenmittelung, indem sie Verbindungen zwischen KL-Divergenz und Frobenius-Distanz zu stationären Zuständen herstellt, das Problem als kombinatorische Optimierung mit Differenz-submodularer Zerlegung neu formuliert und effiziente algorithmische Approximationen vorschlägt, die in numerischen Experimenten ihre Wirksamkeit unter Beweis stellen.

Ryan J. Y. Lim, Michael C. H. ChoiThu, 12 Ma🔢 math