Osmosis Distillation: Model Hijacking with the Fewest Samples

Die Arbeit stellt den „Osmosis Distillation"-Angriff vor, eine neuartige Methode zum Hijacking von Deep-Learning-Modellen im Transfer Learning mit synthetischen Datensätzen, die es Angreifern ermöglicht, mit nur wenigen vergifteten Proben versteckte Aufgaben erfolgreich zu übernehmen, ohne die Leistung auf den ursprünglichen Aufgaben zu beeinträchtigen.

Yuchen Shi, Huajie Chen, Heng Xu, Zhiquan Liu, Jialiang Shen, Chi Liu, Shuai Zhou, Tianqing Zhu, Wanlei Zhou2026-03-06🔒 cs.CR

Causally Robust Reward Learning from Reason-Augmented Preference Feedback

Das Paper stellt ReCouPLe vor, ein leichtgewichtiges Framework, das natürliche Sprachbegründungen nutzt, um kausal robuste Belohnungsfunktionen zu lernen, die sich auf die eigentlichen Nutzerabsichten stützen und dadurch bei Verteilungsverschiebungen sowie in neuen Aufgaben eine deutlich bessere Generalisierungsfähigkeit als herkömmliche Methoden aufweisen.

Minjune Hwang, Yigit Korkmaz, Daniel Seita + 1 more2026-03-06🤖 cs.AI

Interpretable Pre-Release Baseball Pitch Type Anticipation from Broadcast 3D Kinematics

Diese Studie demonstriert, dass allein durch die Analyse von 3D-Kinematikdaten aus Fernsehbildern eine Vorhersagegenauigkeit von 80,4 % für acht verschiedene Baseball-Würfe erreicht werden kann, wobei die Oberkörpermechanik den größten Beitrag leistet und grip-basierte Varianten wie Four-Seam und Two-Seam Fastballs kinematisch nicht unterscheidbar sind.

Jerrin Bright, Michelle Lu, John Zelek2026-03-06🤖 cs.AI

Differential Privacy in Two-Layer Networks: How DP-SGD Harms Fairness and Robustness

Diese Arbeit analysiert, wie der für den Datenschutz notwendige Rauschanteil beim DP-SGD-Training in zweischichtigen neuronalen Netzen das Erlernen von Merkmalen beeinträchtigt, was zu einer Verschlechterung der Fairness, der Robustheit gegenüber Adversarial-Angriffen und der allgemeinen Leistung führt, insbesondere bei unausgewogenen Datenverteilungen oder bei der Verwendung von Public-Pre-Training.

Ruichen Xu, Kexin Chen2026-03-06🤖 cs.LG

FedAFD: Multimodal Federated Learning via Adversarial Fusion and Distillation

Das Paper stellt FedAFD vor, ein einheitliches Framework für multimodales Federated Learning, das durch eine bi-level adversarielle Ausrichtungsstrategie, einen granularitätsbewussten Fusionsmodul und eine similarity-gesteuerte Ensemble-Destillation die Herausforderungen heterogener Datenmodalitäten, Aufgabenunterschiede und Modellheterogenität adressiert, um sowohl auf Client- als auch auf Serverseite eine überlegene Leistung und Privatsphäre zu gewährleisten.

Min Tan, Junchao Ma, Yinfu Feng + 6 more2026-03-06🤖 cs.AI

How Does the ReLU Activation Affect the Implicit Bias of Gradient Descent on High-dimensional Neural Network Regression?

Diese Arbeit zeigt, dass bei hochdimensionalen Zufallsdaten der Gradientenabstieg für flache ReLU-Netzwerke mit hoher Wahrscheinlichkeit eine implizite Verzerrung zugunsten der Minimum-L2-Norm-Lösung aufweist, wobei die Abweichung von der exakten Lösung in der Größenordnung von Θ(n/d)\Theta(\sqrt{n/d}) liegt.

Kuo-Wei Lai, Guanghui Wang, Molei Tao + 1 more2026-03-06🔢 math

VPWEM: Non-Markovian Visuomotor Policy with Working and Episodic Memory

Das Paper stellt VPWEM vor, eine nicht-Markowsche visuomotorische Strategie, die durch die Kombination eines gleitenden Fensters als Arbeitsgedächtnis und eines Transformer-basierten Kompressors für episodische Erinnerungen robotischen Systemen ermöglicht, langfristige Abhängigkeiten in nicht-Markowschen Aufgaben effizient zu bewältigen und dabei den Speicherbedarf konstant zu halten.

Yuheng Lei, Zhixuan Liang, Hongyuan Zhang + 1 more2026-03-06🤖 cs.AI

EVMbench: Evaluating AI Agents on Smart Contract Security

Die Arbeit stellt EVMbench vor, einen Evaluierungsrahmen, der die Fähigkeit fortschrittlicher KI-Agenten misst, Schwachstellen in Smart Contracts zu erkennen, zu beheben und auszunutzen, wobei festgestellt wird, dass diese Agenten in der Lage sind, Angriffe auf live Blockchain-Instanzen erfolgreich durchzuführen.

Justin Wang, Andreas Bigger, Xiaohai Xu, Justin W. Lin, Andy Applebaum, Tejal Patwardhan, Alpin Yukseloglu, Olivia Watkins2026-03-06🔒 cs.CR

BandPO: Bridging Trust Regions and Ratio Clipping via Probability-Aware Bounds for LLM Reinforcement Learning

Die Arbeit stellt BandPO vor, einen neuen Algorithmus für das Reinforcement Learning von Sprachmodellen, der durch die Einführung eines dynamischen, wahrscheinlichkeitsbewussten „Band"-Operators das Problem der Entropie-Kollaps bei herkömmlichen PPO-Clipping-Methoden löst und so eine stabilere und effizientere Optimierung ermöglicht.

Yuan Li, Bo Wang, Yufei Gao + 4 more2026-03-06🤖 cs.AI

Semantic Communication-Enhanced Split Federated Learning for Vehicular Networks: Architecture, Challenges, and Case Study

Diese Arbeit stellt das SC-USFL-Framework vor, das semantische Kommunikation nutzt, um Split-Federated-Learning in Fahrzeugnetzen durch die Übertragung nur relevanter Informationen zu optimieren, wodurch Kommunikationskosten gesenkt, der Datenschutz verbessert und die Lernleistung unter schwankenden Kanalbedingungen erhalten bleibt.

Lu Yu, Zheng Chang, Ying-Chang Liang2026-03-06🤖 cs.LG

Person Detection and Tracking from an Overhead Crane LiDAR

Diese Arbeit stellt einen maßgeschneiderten Overhead-LiDAR-Datensatz für die Personenerkennung und -verfolgung in industriellen Innenräumen vor, adaptiert bestehende 3D-Detektoren für diese spezielle Perspektive und validiert deren Echtzeitfähigkeit durch eine umfassende Evaluierung, um die Lücke zwischen herkömmlichen Fahrzeugsensordaten und Überkopf-Szenarien zu schließen.

Nilusha Jayawickrama, Henrik Toikka, Risto Ojala2026-03-06🤖 cs.LG

\nabla-Reasoner: LLM Reasoning via Test-Time Gradient Descent in Latent Space

Die Arbeit stellt \nabla-Reasoner vor, ein Framework, das durch die Integration differentieller Optimierung von Token-Logits in den Dekodierungsprozess die Schlussfolgerungsfähigkeiten von Large Language Models während der Inferenzzeit effizient verbessert und dabei die Genauigkeit auf mathematischen Benchmarks um über 20 % steigert, während die Anzahl der Modellaufrufe im Vergleich zu bestehenden Methoden reduziert wird.

Peihao Wang, Ruisi Cai, Zhen Wang + 4 more2026-03-06🤖 cs.LG