Learning Lagrangian Interaction Dynamics with Sampling-Based Model Order Reduction

Die vorgestellte Arbeit stellt GIOROM vor, einen sampling-basierten Rahmen für die reduzierte Modellordnung, der Lagrange-Systeme direkt im physikalischen Raum über Partikel entwickelt und durch einen lernbaren Kernel eine hochpräzise, kosteneffiziente Simulation komplexer dynamischer Phänomene wie Strömungen und granulare Medien ermöglicht.

Hrishikesh Viswanath, Yue Chang, Aleksey Panas + 3 more2026-03-04🤖 cs.LG

BA-LoRA: Bias-Alleviating Low-Rank Adaptation to Mitigate Catastrophic Inheritance in Large Language Models

Die Arbeit stellt BA-LoRA vor, eine bias-mindernde Low-Rank-Adaptierungsmethode, die durch gezielte Regularisierungen das Problem der katastrophalen Vererbung von Voreingenommenheit und Rauschen in großen Sprachmodellen effektiv bekämpft und dabei sowohl die Leistung als auch die Robustheit im Vergleich zu bestehenden Ansätzen verbessert.

Yupeng Chang, Yi Chang, Yuan Wu2026-03-04💬 cs.CL

Quantifying User Coherence: A Unified Framework for Analyzing Recommender Systems Across Domains

Diese Arbeit stellt ein einheitliches Framework vor, das mithilfe neuartiger informationstheoretischer Maße die Benutzerkohärenz quantifiziert, um Leistungsunterschiede von Empfehlungssystemen zu erklären, stratifizierte Evaluierungen zu ermöglichen und zielgerichtete Modellentwicklungen für kohärente Nutzergruppen zu unterstützen.

Michaël Soumm, Alexandre Fournier-Montgieux, Adrian Popescu + 1 more2026-03-04🤖 cs.LG

Covering Numbers for Deep ReLU Networks with Applications to Function Approximation and Nonparametric Regression

Diese Arbeit schließt die Lücke in der Literatur, indem sie erstmals enge untere und obere Schranken für die metrische Entropie von Deep ReLU-Netzwerken herleitet, was fundamentale Erkenntnisse über Netzwerkeffekte wie Sparsität und Quantisierung liefert und gleichzeitig die optimale Konvergenzrate für die nichtparametrische Regression durch die Beseitigung eines überflüssigen Logarithmus-Faktors nachweist.

Weigutian Ou, Helmut Bölcskei2026-03-04📊 stat

Prediction of Multiscale Features Using Deep Learning-based Preconditioner-Solver Architecture for Darcy Equation in High-Contrast Media

Die Studie stellt FP-HMsNet vor, eine effiziente hierarchische Architektur, die Fourier-Neuronale Operatoren mit Multi-Scale-Netzen kombiniert, um die Darcy-Gleichung in hochkontrastierenden porösen Medien präzise zu lösen und dabei sowohl die Genauigkeit als auch die Recheneffizienz gegenüber bestehenden Modellen signifikant zu steigern.

Jie Chen, Peiqi Li, Zhengkang He + 1 more2026-03-04🤖 cs.LG

Evaluating Spoken Language as a Biomarker for Automated Screening of Cognitive Impairment

Die Studie zeigt, dass erklärbare maschinelle Lernmodelle, die auf linguistischen Merkmalen basieren, ein vielversprechendes, skalierbares Werkzeug für das automatische Screening und die Risikotriage kognitiver Beeinträchtigungen wie der Alzheimer-Krankheit darstellen, auch wenn die Generalisierbarkeit auf reale Daten noch verbessert werden muss.

Maria R. Lima, Alexander Capstick, Fatemeh Geranmayeh + 4 more2026-03-04💬 cs.CL

SEM-CTRL\texttt{SEM-CTRL}: Semantically Controlled Decoding

Die Arbeit stellt \texttt{SEM-CTRL} vor, einen Ansatz, der mittels Antwortset-Grammatiken und token-basiertem Monte-Carlo-Baumsuche-Verfahren semantische und syntaktische Constraints direkt in den Decoder von Large Language Models integriert, um ohne Feinabstimmung korrekte Ausgaben zu garantieren und dabei selbst kleinere Modelle leistungsfähiger als größere State-of-the-Art-Modelle zu machen.

Mohammad Albinhassan, Pranava Madhyastha, Alessandra Russo2026-03-04🤖 cs.AI

LiteLMGuard: Seamless and Lightweight On-Device Prompt Filtering for Safeguarding Small Language Models against Quantization-induced Risks and Vulnerabilities

Die Arbeit stellt LiteLMGuard vor, einen leichten und plattformunabhängigen On-Device-Guardrail, der quantisierte Small Language Models durch semantische Prompt-Filterung effektiv vor Sicherheitsrisiken und Angriffen schützt, ohne dabei die Latenz oder Privatsphäre zu beeinträchtigen.

Kalyan Nakka, Jimmy Dani, Ausmit Mondal + 1 more2026-03-04🤖 cs.LG