Sample-Optimal Locally Private Hypothesis Selection and the Provable Benefits of Interactivity

Diese Arbeit stellt einen optimalen, interaktiven Algorithmus für die Hypothesenauswahl unter lokaler Differentialprivatsphäre vor, der die bisherige Probenkomplexität von Ω(klogk)\Omega(k \log k) auf Θ(k)\Theta(k) senkt und dabei zeigt, dass bereits wenige Interaktionsrunden ausreichen, um die Grenzen nicht-interaktiver Verfahren zu durchbrechen.

Alireza F. Pour, Hassan Ashtiani, Shahab Asoodeh2026-03-05🤖 cs.LG

Scalable physics-informed deep generative model for solving forward and inverse stochastic differential equations

Die Studie stellt ein skalierbares, physik-informiertes tiefes generatives Modell (sPI-GeM) vor, das durch die Kombination von basisnetzwerken und einem generativen Modell effizient sowohl Vorwärts- als auch Inversprobleme bei stochastischen Differentialgleichungen mit hochdimensionalen stochastischen und räumlichen Räumen löst.

Shaoqian Zhou, Wen You, Ling Guo + 1 more2026-03-05🔬 physics

Convergence, Sticking and Escape: Stochastic Dynamics Near Critical Points in SGD

Die Arbeit untersucht die Konvergenz- und Fluchtdynamik des stochastischen Gradientenabstiegs in eindimensionalen Landschaften mit unterschiedlichem Rauschen und zeigt, wie Rauschcharakteristika und die Geometrie der Funktion bestimmen, ob SGD in Minima konvergiert, in der Nähe von Maxima verweilt oder diese mit einer bestimmten Wahrscheinlichkeit zu benachbarten Minima überwindet.

Dmitry Dudukalov, Artem Logachov, Vladimir Lotov + 3 more2026-03-05🤖 cs.LG

A Copula Based Supervised Filter for Feature Selection in Diabetes Risk Prediction Using Machine Learning

Die Studie stellt einen effizienten, kopulabasierten Filter vor, der Merkmale anhand ihrer gemeinsamen Extremwerte mit der positiven Klasse bewertet und sich in der Diabetes-Risikovorhersage als schneller und klinisch interpretierbarer Ansatz erweist, der insbesondere bei großen Datensätzen mit Standardmethoden konkurrieren kann.

Agnideep Aich, Md Monzur Murshed, Sameera Hewage + 1 more2026-03-05🤖 cs.LG

Boosting In-Context Learning in LLMs Through the Lens of Classical Supervised Learning

Die Arbeit stellt „Supervised Calibration" (SC) vor, ein auf Verlustminimierung basierendes Framework, das durch das Lernen optimaler affiner Transformationen im Logit-Raum und die Integration spezieller Regularisierungstechniken die Grenzen bestehender Kalibrierungsmethoden überwindet und so die Leistung von Large Language Models beim In-Context Learning signifikant verbessert.

Korel Gundem, Juncheng Dong, Dennis Zhang + 2 more2026-03-05🤖 cs.AI

Learning in an Echo Chamber: Online Learning with Replay Adversary

Diese Arbeit führt den Lernbegriff „Online Learning with Replay Adversary" ein, in dem ein Lerner mit selbstannotierten, fehlerhaften Daten konfrontiert wird, und beweist, dass die „Extended Threshold dimension" die exakte Grenze für die Lernbarkeit darstellt, wobei ein closure-basierter Algorithmus eine optimale Fehlerrate erreicht, während klassische Algorithmen und Proper Learning in diesem Szenario versagen.

Daniil Dmitriev, Harald Eskelund Franck, Carolin Heinzler + 1 more2026-03-05🤖 cs.LG