EDINET-Bench: Evaluating LLMs on Complex Financial Tasks using Japanese Financial Statements

Die Studie stellt EDINET-Bench vor, einen Open-Source-Benchmark auf Basis japanischer Jahresabschlüsse, der zeigt, dass selbst fortschrittliche Large Language Models bei komplexen Finanzaufgaben wie der Betrugserkennung nur marginal besser abschneiden als einfache logistische Regressionen und somit einen Bedarf an realistischeren, unterstützenden Evaluierungsrahmen aufzeigen.

Issa Sugiura, Takashi Ishida, Taro Makino + 4 more2026-03-06💻 cs

FMint-SDE: A Multimodal Foundation Model for Accelerating Numerical Simulation of SDEs via Error Correction

Die Arbeit stellt FMint-SDE vor, ein multimodales Basis-Modell auf Transformer-Basis, das durch In-Context-Learning und eine universelle Fehlerkorrektur auf Basis grober numerischer Lösungen eine überlegene Genauigkeit und Effizienz bei der Simulation stochastischer Differentialgleichungen in verschiedenen wissenschaftlichen Domänen ermöglicht.

Jiaxin Yuan, Haizhao Yang, Maria Cameron2026-03-06🔢 math

FedEMA-Distill: Exponential Moving Average Guided Knowledge Distillation for Robust Federated Learning

Die Arbeit stellt FedEMA-Distill vor, eine serverseitige Methode für robustes und kommunikationseffizientes Federated Learning, die durch die Kombination von Exponential Moving Average und Ensemble-Knowledge-Distillation auf Basis von Client-Logits die Genauigkeit unter nicht-IID-Datenbedingungen und Byzantine-Angriffen verbessert, ohne Änderungen an der Client-Software zu erfordern.

Hamza Reguieg, Mohamed El Kamili, Essaid Sabir2026-03-06💻 cs

Capability Thresholds and Manufacturing Topology: How Embodied Intelligence Triggers Phase Transitions in Economic Geography

Diese Arbeit argumentiert, dass durchbrochene Schwellenwerte der verkörperten Intelligenz die seit der Ford-Ära bestehende Topologie der Fertigung fundamental verändern, indem sie die Standortlogik von Arbeitskräftearbitrage auf maschinenoptimierte Klimabedingungen verlagern und dezentrale, nachfrageorientierte Mikroproduktion ermöglichen.

Xinmin Fang, Lingfeng Tao, Zhengxiong Li2026-03-06🔬 physics

Neuro-Symbolic Financial Reasoning via Deterministic Fact Ledgers and Adversarial Low-Latency Hallucination Detector

Die Arbeit stellt VeNRA vor, ein neuro-symbolisches System für die Finanzanalyse, das durch einen deterministischen Universal Fact Ledger, eine mathematisch abgesicherte Verankerung und einen adversarisch trainierten Sentinel zur Echtzeit-Überprüfung von Python-Ausführungen die Zuverlässigkeit von RAG-Architekturen in kritischen Finanzszenarien gewährleistet.

Pedram Agand2026-03-06💻 cs

Improved accuracy of continuum surface flux models for metal additive manufacturing melt pool simulations

Die Studie stellt einen neuartigen, parametrisch skalierten Ansatz für Kontinuumsoberflächenflussmodelle vor, der die Genauigkeit von Temperaturvorhersagen in Schmelzpool-Simulationen der Metall-additiven Fertigung signifikant verbessert und dabei die erforderliche Gitterauflösung sowie die Rechenkosten drastisch reduziert.

Nils Much, Magdalena Schreter-Fleischhacker, Peter Munch + 3 more2026-03-05💻 cs

SpecBridge: Bridging Mass Spectrometry and Molecular Representations via Cross-Modal Alignment

Die Arbeit stellt SpecBridge vor, ein neuartiges Framework, das durch die Feinabstimmung eines spektralen Encoders zur Ausrichtung auf einen eingefrorenen molekularen Basis-Modell-Latenzraum die Identifizierung von Kleinstmolekülen aus Tandem-Massenspektrometrie-Daten erheblich verbessert und dabei eine stabile, parameter-effiziente Alternative zu herkömmlichen Architekturen bietet.

Yinkai Wang, Yan Zhou Chen, Xiaohui Chen + 2 more2026-03-05🤖 cs.LG

MOOSE-Star: Unlocking Tractable Training for Scientific Discovery by Breaking the Complexity Barrier

Das Paper stellt MOOSE-Star vor, ein Framework, das durch die Zerlegung des Entdeckungsprozesses in Teilaufgaben, motivationsgesteuerte Hierarchiesuche und begrenzte Komposition die mathematische Intractabilität des direkten Trainings von P(HypotheseHintergrund)P(\text{Hypothese}|\text{Hintergrund}) überwindet und so skalierbares Training für wissenschaftliche Entdeckungen ermöglicht.

Zonglin Yang, Lidong Bing2026-03-05🤖 cs.LG