Double Momentum and Error Feedback for Clipping with Fast Rates and Differential Privacy

Die Autoren stellen Clip21-SGD2M vor, einen neuen Algorithmus für das Federated Learning, der durch eine innovative Kombination aus Clipping, Heavy-Ball-Momentum und Error Feedback sowohl optimale Konvergenzraten bei beliebiger Datenheterogenität als auch starke lokale Differentialprivatsphäre-Garantien ohne restriktive Annahmen erreicht.

Rustem Islamov, Samuel Horvath, Aurelien Lucchi + 2 more2026-03-06🔢 math

Safety Mirage: How Spurious Correlations Undermine VLM Safety Fine-Tuning and Can Be Mitigated by Machine Unlearning

Die Arbeit zeigt, dass überwachtes Sicherheitstraining bei Vision-Language-Modellen durch irreführende oberflächliche Korrelationen anfällig für Umgehungsangriffe und übermäßige Zurückhaltung bleibt, und demonstriert, dass maschinelles Vergessen (Machine Unlearning) eine überlegene Alternative ist, um schädliches Wissen gezielt zu entfernen und gleichzeitig die Sicherheit sowie die Leistungsfähigkeit der Modelle zu verbessern.

Yiwei Chen, Yuguang Yao, Yihua Zhang + 3 more2026-03-06💻 cs

Assessing the Impact of Code Changes on the Fault Localizability of Large Language Models

Diese Studie stellt ein neuartiges, skalierbares Evaluierungsframework vor, das zeigt, dass die Fähigkeit von Large Language Models zur Fehlerlokalisation durch semantisch erhaltende Mutationen stark beeinträchtigt wird, was auf eine übermäßige Abhängigkeit von syntaktischen Merkmalen anstelle eines tiefen semantischen Verständnisses hinweist.

Sabaat Haroon, Ahmad Faraz Khan, Ahmad Humayun + 5 more2026-03-06💻 cs

TianQuan-S2S: A Subseasonal-to-Seasonal Global Weather Model via Incorporate Climatology State

Das Paper stellt TianQuan-S2S vor, ein globales Wettermodell für subseasonale bis saisonale Vorhersagen, das durch die Integration klimatologischer Zustände in die Patch-Embeddings und einen unsicherheitsaugmentierten Transformer die Überglättung bestehender datengetriebener Modelle überwindet und dabei die Leistungsfähigkeit etablierter numerischer sowie anderer KI-basierter Modelle in Schlüsselmetriken übertrifft.

Guowen Li, Xintong Liu, Yang Liu + 11 more2026-03-06💻 cs

Highly Efficient and Effective LLMs with Multi-Boolean Architectures

Die vorgestellte Arbeit führt ein neues Framework ein, das Large Language Models durch Multi-Boolean-Architekturen darstellt und erstmals eine direkte Feinabstimmung im booleschen Bereich ohne latente Vollpräzisionsgewichte ermöglicht, wodurch die Komplexität gesenkt und die Leistungsfähigkeit im Vergleich zu bestehenden Binärisierungs- und Quantisierungsmethoden erheblich gesteigert wird.

Ba-Hien Tran, Van Minh Nguyen2026-03-06💻 cs

Continuous Chain of Thought Enables Parallel Exploration and Reasoning

Diese Arbeit stellt Continuous Chain of Thought (CoT2) vor, ein neuartiges Framework, das durch den Einsatz kontinuierlich bewerteter Token die parallele Exploration mehrerer Denkpfade ermöglicht, theoretische Garantien für die Effizienzsteigerung bietet und durch spezielle Überwachungs- und Sampling-Strategien die Leistung von Sprachmodellen bei logischen und kombinatorischen Aufgaben signifikant verbessert.

Halil Alperen Gozeten, M. Emrullah Ildiz, Xuechen Zhang + 3 more2026-03-06💻 cs