Upper Generalization Bounds for Neural Oscillators
Diese Arbeit leitet theoretische obere PAC-Generalisierungsschranken für neuronale Oszillatoren auf Basis von ODEs und MLPs her, zeigt, dass die Fehlerpolynome in MLP-Größe und Zeitlänge wachsen, und bestätigt durch numerische Studien, dass die Regularisierung der Lipschitz-Konstanten die Generalisierungsfähigkeit bei begrenzten Trainingsdaten verbessert.