Composition-Grounded Data Synthesis for Visual Reasoning

Die Arbeit stellt COGS vor, ein dateneffizientes Framework, das durch die Zerlegung von Seed-Fragen in primitive Faktoren und deren systematische Neukombination mit synthetischen Bildern große Mengen an Trainingsdaten für das visuelle Schlussfolgern von Multi-modalen Large Language Models generiert und so deren Leistungsfähigkeit insbesondere bei komplexen, zusammengesetzten Aufgaben erheblich steigert.

Xinyi Gu, Jiayuan Mao, Zhang-Wei Hong + 5 more2026-03-05🤖 cs.LG

CNFP: Optimizing Cloud-Native Network Function Placement with Diffusion Models on the Cloud Continuum

Die Studie stellt CNFP vor, einen neuartigen Ansatz zur Platzierung von Cloud-Nativen Netzwerkfunktionen im Cloud-Continuum, der Diffusionsmodelle mit Graph Neural Networks kombiniert, um unter Einhaltung strenger Ressourcen- und Latenzbedingungen skalierbare und robuste Lösungen zu generieren, die herkömmliche Methoden in Bezug auf Geschwindigkeit und Generalisierungsfähigkeit übertreffen.

Álvaro Vázquez Rodríguez, Manuel Fernández-Veiga, Carlos Giraldo-Rodríguez2026-03-05🤖 cs.LG

Better audio representations are more brain-like: linking model-brain alignment with performance in downstream auditory tasks

Die Studie zeigt, dass Audio-Modelle mit höherer Leistung in nachgelagerten Aufgaben auch eine stärkere Ähnlichkeit mit menschlichen Gehirnaktivitäten aufweisen, was darauf hindeutet, dass brain-ähnliche Repräsentationen ein emergentes Nebenprodukt des Lernens aus natürlichen Audiodaten sind.

Leonardo Pepino, Pablo Riera, Juan Kamienkowski + 1 more2026-03-05🤖 cs.LG

Weight Space Representation Learning via Neural Field Adaptation

Diese Arbeit untersucht, wie die Einschränkung des Optimierungsrums durch ein vortrainiertes Basismodell und Low-Rank Adaptation (LoRA) strukturierte und semantisch aussagekräftige Repräsentationen im Gewichtsraum induziert, die sich insbesondere für Rekonstruktions-, Generierungs- und Analyseaufgaben sowie zur Verbesserung der Qualität latenter Diffusionsmodelle eignen.

Zhuoqian Yang, Mathieu Salzmann, Sabine Süsstrunk2026-03-05🤖 cs.AI

Learning under Distributional Drift: Prequential Reproducibility as an Intrinsic Statistical Resource

Diese Arbeit führt ein intrinsisches Drift-Budget CTC_T ein, das die kumulative Fisher-Rao-Bewegung der Datenverteilung in geschlossenen Lernsystemen quantifiziert und zeigt, dass die Reproduzierbarkeit der Vorhersagen durch eine untere Schranke von T1/2+CT/TT^{-1/2} + C_T/T bestimmt wird, welche die unvermeidbare Genauigkeitsgrenze bei nicht vernachlässigbarer Drift festlegt.

Sofiya Zaichyk2026-03-05🤖 cs.LG

Generalization of RLVR Using Causal Reasoning as a Testbed

Diese Studie zeigt, dass Reinforcement Learning mit verifizierbaren Belohnungen (RLVR) die Generalisierungsfähigkeit von Sprachmodellen in der kausalen Schlussfolgerung im Vergleich zur überwachten Feinabstimmung verbessert, jedoch nur dann wirksam ist, wenn die Modelle über eine ausreichende initiale Schlussfolgerungskompetenz verfügen, um ihre Marginalisierungsstrategien und Zwischenschritte zu optimieren.

Brian Lu, Hongyu Zhao, Shuo Sun + 3 more2026-03-05🤖 cs.AI