CNFP: Optimizing Cloud-Native Network Function Placement with Diffusion Models on the Cloud Continuum

Die Studie stellt CNFP vor, einen neuartigen Ansatz zur Platzierung von Cloud-Nativen Netzwerkfunktionen im Cloud-Continuum, der Diffusionsmodelle mit Graph Neural Networks kombiniert, um unter Einhaltung strenger Ressourcen- und Latenzbedingungen skalierbare und robuste Lösungen zu generieren, die herkömmliche Methoden in Bezug auf Geschwindigkeit und Generalisierungsfähigkeit übertreffen.

Álvaro Vázquez Rodríguez, Manuel Fernández-Veiga, Carlos Giraldo-Rodríguez2026-03-05🤖 cs.LG

Better audio representations are more brain-like: linking model-brain alignment with performance in downstream auditory tasks

Die Studie zeigt, dass Audio-Modelle mit höherer Leistung in nachgelagerten Aufgaben auch eine stärkere Ähnlichkeit mit menschlichen Gehirnaktivitäten aufweisen, was darauf hindeutet, dass brain-ähnliche Repräsentationen ein emergentes Nebenprodukt des Lernens aus natürlichen Audiodaten sind.

Leonardo Pepino, Pablo Riera, Juan Kamienkowski + 1 more2026-03-05🤖 cs.LG

Weight Space Representation Learning via Neural Field Adaptation

Diese Arbeit untersucht, wie die Einschränkung des Optimierungsrums durch ein vortrainiertes Basismodell und Low-Rank Adaptation (LoRA) strukturierte und semantisch aussagekräftige Repräsentationen im Gewichtsraum induziert, die sich insbesondere für Rekonstruktions-, Generierungs- und Analyseaufgaben sowie zur Verbesserung der Qualität latenter Diffusionsmodelle eignen.

Zhuoqian Yang, Mathieu Salzmann, Sabine Süsstrunk2026-03-05🤖 cs.AI

Learning under Distributional Drift: Prequential Reproducibility as an Intrinsic Statistical Resource

Diese Arbeit führt ein intrinsisches Drift-Budget CTC_T ein, das die kumulative Fisher-Rao-Bewegung der Datenverteilung in geschlossenen Lernsystemen quantifiziert und zeigt, dass die Reproduzierbarkeit der Vorhersagen durch eine untere Schranke von T1/2+CT/TT^{-1/2} + C_T/T bestimmt wird, welche die unvermeidbare Genauigkeitsgrenze bei nicht vernachlässigbarer Drift festlegt.

Sofiya Zaichyk2026-03-05🤖 cs.LG

Generalization of RLVR Using Causal Reasoning as a Testbed

Diese Studie zeigt, dass Reinforcement Learning mit verifizierbaren Belohnungen (RLVR) die Generalisierungsfähigkeit von Sprachmodellen in der kausalen Schlussfolgerung im Vergleich zur überwachten Feinabstimmung verbessert, jedoch nur dann wirksam ist, wenn die Modelle über eine ausreichende initiale Schlussfolgerungskompetenz verfügen, um ihre Marginalisierungsstrategien und Zwischenschritte zu optimieren.

Brian Lu, Hongyu Zhao, Shuo Sun + 3 more2026-03-05🤖 cs.AI

Deterministic Coreset for Lp Subspace

Diese Arbeit stellt den ersten deterministischen iterativen Algorithmus vor, der für beliebige p[1,)p \in [1,\infty) und ε>0\varepsilon > 0 eine ε\varepsilon-Kernmenge mit optimaler Größe ohne logarithmische Faktoren konstruiert, um eine deterministische p\ell_p-Unterraumeinbettung zu gewährleisten und damit das p\ell_p-Regressionsproblem deterministisch zu lösen.

Rachit Chhaya, Anirban Dasgupta, Dan Feldman + 1 more2026-03-05🤖 cs.LG

Measurement-Consistent Langevin Corrector for Stabilizing Latent Diffusion Inverse Problem Solvers

Die Arbeit stellt den „Measurement-Consistent Langevin Corrector" (MCLC) vor, einen theoretisch fundierten Plug-and-Play-Modul, der die Instabilität latenter Diffusionslösungsansätze für inverse Probleme durch messungskonsistente Langevin-Aktualisierungen behebt und so eine stabilere und zuverlässigere Lösung im latenten Raum ermöglicht.

Lee Hyoseok, Sohwi Lim, Eunju Cha + 1 more2026-03-05🤖 cs.LG