Safety Mirage: How Spurious Correlations Undermine VLM Safety Fine-Tuning and Can Be Mitigated by Machine Unlearning

Die Arbeit zeigt, dass überwachtes Sicherheitstraining bei Vision-Language-Modellen durch irreführende oberflächliche Korrelationen anfällig für Umgehungsangriffe und übermäßige Zurückhaltung bleibt, und demonstriert, dass maschinelles Vergessen (Machine Unlearning) eine überlegene Alternative ist, um schädliches Wissen gezielt zu entfernen und gleichzeitig die Sicherheit sowie die Leistungsfähigkeit der Modelle zu verbessern.

Yiwei Chen, Yuguang Yao, Yihua Zhang + 3 more2026-03-06💻 cs

Assessing the Impact of Code Changes on the Fault Localizability of Large Language Models

Diese Studie stellt ein neuartiges, skalierbares Evaluierungsframework vor, das zeigt, dass die Fähigkeit von Large Language Models zur Fehlerlokalisation durch semantisch erhaltende Mutationen stark beeinträchtigt wird, was auf eine übermäßige Abhängigkeit von syntaktischen Merkmalen anstelle eines tiefen semantischen Verständnisses hinweist.

Sabaat Haroon, Ahmad Faraz Khan, Ahmad Humayun + 5 more2026-03-06💻 cs

TianQuan-S2S: A Subseasonal-to-Seasonal Global Weather Model via Incorporate Climatology State

Das Paper stellt TianQuan-S2S vor, ein globales Wettermodell für subseasonale bis saisonale Vorhersagen, das durch die Integration klimatologischer Zustände in die Patch-Embeddings und einen unsicherheitsaugmentierten Transformer die Überglättung bestehender datengetriebener Modelle überwindet und dabei die Leistungsfähigkeit etablierter numerischer sowie anderer KI-basierter Modelle in Schlüsselmetriken übertrifft.

Guowen Li, Xintong Liu, Yang Liu + 11 more2026-03-06💻 cs

Highly Efficient and Effective LLMs with Multi-Boolean Architectures

Die vorgestellte Arbeit führt ein neues Framework ein, das Large Language Models durch Multi-Boolean-Architekturen darstellt und erstmals eine direkte Feinabstimmung im booleschen Bereich ohne latente Vollpräzisionsgewichte ermöglicht, wodurch die Komplexität gesenkt und die Leistungsfähigkeit im Vergleich zu bestehenden Binärisierungs- und Quantisierungsmethoden erheblich gesteigert wird.

Ba-Hien Tran, Van Minh Nguyen2026-03-06💻 cs

Continuous Chain of Thought Enables Parallel Exploration and Reasoning

Diese Arbeit stellt Continuous Chain of Thought (CoT2) vor, ein neuartiges Framework, das durch den Einsatz kontinuierlich bewerteter Token die parallele Exploration mehrerer Denkpfade ermöglicht, theoretische Garantien für die Effizienzsteigerung bietet und durch spezielle Überwachungs- und Sampling-Strategien die Leistung von Sprachmodellen bei logischen und kombinatorischen Aufgaben signifikant verbessert.

Halil Alperen Gozeten, M. Emrullah Ildiz, Xuechen Zhang + 3 more2026-03-06💻 cs

HSG-12M: A Large-Scale Benchmark of Spatial Multigraphs from the Energy Spectra of Non-Hermitian Crystals

Die Studie stellt HSG-12M vor, einen umfassenden Datensatz mit über 16 Millionen räumlichen Multigraphen, der mithilfe des automatisierten Poly2Graph-Pipelines aus nicht-hermiteschen Kristallspektren generiert wurde, um als Benchmark für geometriebewusstes Graph-Learning und datengetriebene Entdeckungen in der kondensierten Materie zu dienen.

Xianquan Yan, Hakan Akgün, Kenji Kawaguchi + 2 more2026-03-06🔬 cond-mat.mes-hall

EDINET-Bench: Evaluating LLMs on Complex Financial Tasks using Japanese Financial Statements

Die Studie stellt EDINET-Bench vor, einen Open-Source-Benchmark auf Basis japanischer Jahresabschlüsse, der zeigt, dass selbst fortschrittliche Large Language Models bei komplexen Finanzaufgaben wie der Betrugserkennung nur marginal besser abschneiden als einfache logistische Regressionen und somit einen Bedarf an realistischeren, unterstützenden Evaluierungsrahmen aufzeigen.

Issa Sugiura, Takashi Ishida, Taro Makino + 4 more2026-03-06💻 cs