On the Learnability of Offline Model-Based Optimization: A Ranking Perspective

Diese Arbeit stellt die Annahme in Frage, dass hohe Vorhersagegenauigkeit für Offline-Modellbasierte Optimierung ausreicht, und beweist theoretisch sowie empirisch, dass ein rankingbasierter Ansatz, der die Verteilungsunterschiede zwischen Trainingsdaten und optimalen Designs berücksichtigt, überlegene Ergebnisse liefert, während sie gleichzeitig inhärente Grenzen der Methode aufzeigt.

Shen-Huan Lyu, Rong-Xi Tan, Ke Xue + 4 more2026-03-05🤖 cs.LG

Continuous Modal Logical Neural Networks: Modal Reasoning via Stochastic Accessibility

Die Arbeit stellt Fluid Logic und Continuous Modal Logical Neural Networks (CMLNNs) vor, ein Paradigma, das modale logische Schlussfolgerungen durch stochastische Differentialgleichungen auf kontinuierliche Mannigfaltigkeiten überträgt, um logisch konsistente neuronale Netzwerke für Anwendungen wie Halluzinationserkennung, geometrische Rekonstruktion und sichere Steuerung zu ermöglichen.

Antonin Sulc2026-03-05🤖 cs.LG

DQE-CIR: Distinctive Query Embeddings through Learnable Attribute Weights and Target Relative Negative Sampling in Composed Image Retrieval

Die Arbeit stellt DQE-CIR vor, eine Methode zur kompositen Bildsuche, die durch lernbare Attributgewichte und ein zielrelatives negatives Sampling die Diskriminativität von Abfrage-Embeddings verbessert, um Relevanzunterdrückung und semantische Verwirrung in bestehenden kontrastiven Lernrahmen zu überwinden.

Geon Park, Ji-Hoon Park, Seong-Whan Lee2026-03-05🤖 cs.AI

BeamPERL: Parameter-Efficient RL with Verifiable Rewards Specializes Compact LLMs for Structured Beam Mechanics Reasoning

Die Studie zeigt, dass reinforcement learning mit exakten physikalischen Belohnungen zwar die Leistung kompakter Sprachmodelle bei Balkenstatik verbessert, jedoch oft zu oberflächlichem Musterabgleich anstelle eines robusten, generalisierbaren physikalischen Verständnisses führt, was den Bedarf an strukturierten Denkgerüsten unterstreicht.

Tarjei Paule Hage, Markus J. Buehler2026-03-05🔬 cond-mat.mtrl-sci

Data-Aware Random Feature Kernel for Transformers

Die Arbeit stellt DARKFormer vor, einen Transformer, der durch eine datenbewusste Kernel-Geometrie und einen effizienten, varianzreduzierten Importance-Sampling-Schätzer die quadratische Komplexität von Attention auf lineare reduziert und dabei die Leistungslücke zu exakten Softmax-Modellen insbesondere bei anisotropen, vortrainierten Repräsentationen schließt.

Amirhossein Farzam, Hossein Mobahi, Nolan Andrew Miller + 1 more2026-03-05🤖 cs.AI

InstMeter: An Instruction-Level Method to Predict Energy and Latency of DL Model Inference on MCUs

Die Arbeit stellt InstMeter vor, eine präzise und dateneffiziente Methode zur Vorhersage von Energieverbrauch und Latenz bei der Inferenz von Deep-Learning-Modellen auf Mikrocontrollern auf Basis von Taktzyklen, die im Vergleich zu bestehenden Ansätzen deutlich geringere Fehler aufweist und die Suche nach optimalen Modellen im Rahmen des Neural Architecture Search (NAS) verbessert.

Hao Liu, Qing Wang, Marco Zuniga2026-03-05🤖 cs.LG