Minor First, Major Last: A Depth-Induced Implicit Bias of Sharpness-Aware Minimization

Die Studie zeigt, dass Sharpness-Aware Minimization (SAM) bei tiefen linearen Netzwerken im Gegensatz zum Gradientenabstieg zu einem stark initialisierungsabhängigen Verhalten führt, das bei \ell_\infty-SAM zu nicht-intuitiven Grenzwerten und bei 2\ell_2-SAM zu einer sequenziellen Verstärkung zunächst schwacher Merkmale führt, was die Unzulänglichkeit rein asymptotischer Analysen der impliziten Verzerrung aufdeckt.

Chaewon Moon, Dongkuk Si, Chulhee Yun2026-03-10🤖 cs.LG

Deconstructing Multimodal Mathematical Reasoning: Towards a Unified Perception-Alignment-Reasoning Paradigm

Dieser Übersichtsartikel analysiert den aktuellen Stand der multimodalen mathematischen Schlussfolgerung, indem er ein einheitliches Paradigma aus Wahrnehmung, Ausrichtung und Verifizierung vorschlägt, um bestehende Herausforderungen bei der Diagrammintepretation und der Bewertung von Zwischenschritten zu adressieren.

Tianyu Yang, Sihong Wu, Yilun Zhao, Zhenwen Liang, Lisen Dai, Chen Zhao, Minhao Cheng, Arman Cohan, Xiangliang Zhang2026-03-10💻 cs

Concept-Guided Fine-Tuning: Steering ViTs away from Spurious Correlations to Improve Robustness

Diese Arbeit stellt ein neues Fine-Tuning-Framework vor, das die Robustheit von Vision Transformern gegenüber Verteilungsverschiebungen verbessert, indem es die Modellentscheidungen durch automatisch generierte, konzeptbasierte Masken auf semantisch relevante Objektmerkmale lenkt und so den Fokus von irreführenden Hintergrundkorrelationen abwendet.

Yehonatan Elisha, Oren Barkan, Noam Koenigstein2026-03-10🤖 cs.LG

Human-AI Divergence in Ego-centric Action Recognition under Spatial and Spatiotemporal Manipulations

Diese Studie vergleicht die Leistung von Menschen und KI-Modellen bei der egozentrischen Aktionserkennung unter verschiedenen räumlichen und zeitlichen Manipulationen und zeigt, dass Menschen stark auf semantisch kritische, spärliche Hinweise wie Hand-Objekt-Interaktionen angewiesen sind, während KI-Modelle eher kontextuelle Merkmale nutzen und eine andere Robustheit gegenüber zeitlichen Störungen aufweisen.

Sadegh Rahmaniboldaji, Filip Rybansky, Quoc C. Vuong, Anya C. Hurlbert, Frank Guerin, Andrew Gilbert2026-03-10💻 cs

CORE-Acu: Structured Reasoning Traces and Knowledge Graph Safety Verification for Acupuncture Clinical Decision Support

Das Paper stellt CORE-Acu vor, ein neuro-symbolisches Framework für die Akupunktur-Entscheidungsunterstützung, das strukturierte Denkprozesse mit einem Wissensgraphen zur Sicherheitsprüfung kombiniert, um die Interpretierbarkeit zu erhöhen und durch einen geschlossenen Verifikationszyklus sowie einen lexikonbasierten Verlustmechanismus hallucinierte oder unsichere Empfehlungen zu eliminieren.

Liuyi Xu, Yun Guo, Ming Chen, Zihan Dun, Yining Qian, An-Yang Lu, Shuang Li, Lijun Liu2026-03-10💻 cs

M3^3-ACE: Rectifying Visual Perception in Multimodal Math Reasoning via Multi-Agentic Context Engineering

Die Arbeit stellt M³-ACE vor, ein Multi-Agenten-Framework, das durch die Entkopplung von Wahrnehmung und Schlussfolgerung sowie den Einsatz spezieller Werkzeuge zur Zusammenfassung und Verfeinerung visuelle Wahrnehmungsfehler in der multimodalen mathematischen Reasoning korrigiert und damit neue State-of-the-Art-Ergebnisse auf Benchmarks wie MathVision erzielt.

Peijin Xie, Zhen Xu, Bingquan Liu, Baoxun Wang2026-03-10💻 cs

A Hierarchical Error-Corrective Graph Framework for Autonomous Agents with LLM-Based Action Generation

Die vorgestellte Arbeit stellt das hierarchische, fehlerkorrigierende Graph-Framework HECG vor, das autonome Agenten durch die Integration multidimensionaler Transferstrategien, eine strukturierte Fehlerklassifizierung und kausal-kontextbasierte Graph-Retrieval-Verfahren befähigt, Aufgaben präziser zu lösen und Fehler systematisch zu korrigieren.

Cong Cao, Jingyao Zhang, Kun Tong2026-03-10💻 cs

Revealing Behavioral Plasticity in Large Language Models: A Token-Conditional Perspective

Die Arbeit stellt das Token-Conditioned Reinforcement Learning (ToCoRL)-Framework vor, das die inhärente Verhaltensplastizität von Large Language Models durch token-bedingte Generierung und Verstärkungslernen nutzt, um präzise Verhaltensanpassungen ohne Kapazitätsverlust zu ermöglichen, wie etwa die Umwandlung von rechenintensiven Modellen in effiziente Faktenfragesteller.

Liyuan Mao, Le Yu, Jing Zhou, Chujie Zheng, Bowen Yu, Chang Gao, Shixuan Liu, An Yang, Weinan Zhang, JunYang Lin2026-03-10🤖 cs.LG