Do Schwartz Higher-Order Values Help Sentence-Level Human Value Detection? A Study of Hierarchical Gating and Calibration

Die Studie zeigt, dass die Struktur der Schwartz-Höherwert-Kategorien als induktive Verzerrung nützlich ist, jedoch die Kalibrierung und Ensemble-Methoden im Vergleich zu starren hierarchischen Gating-Mechanismen oder eigenständigen kompakten LLMs die entscheidenden Verbesserungen bei der Erkennung menschlicher Werte auf Satzebene liefern.

Víctor Yeste, Paolo Rosso2026-03-10🤖 cs.LG

Thickening-to-Thinning: Reward Shaping via Human-Inspired Learning Dynamics for LLM Reasoning

Die Arbeit stellt T2T (Thickening-to-Thinning) vor, ein dynamisches Belohnungsframework für das Reinforcement Learning von Large Language Models, das menschliche Lernprozesse nachahmt, indem es bei fehlerhaften Versuchen längere Suchpfade fördert und bei korrekten Lösungen Redundanzen bestraft, um so die mathematische Reasoning-Leistung signifikant zu steigern.

Wenze Lin, Zhen Yang, Xitai Jiang, Pony Ma, Gao Huang2026-03-10🤖 cs.LG

Inference-Time Backdoors via Hidden Instructions in LLM Chat Templates

Die Studie zeigt, dass Angreifer durch Manipulation der Chat-Templates in Open-Weight-Modellen inferencezeitbasierte Backdoors implementieren können, die ohne Änderungen an den Modellgewichten oder Trainingsdaten zu einer drastischen Verschlechterung der Faktenkorrektheit und zur Ausgabe manipulierter URLs führen, während sie gleichzeitig bestehende Sicherheitsmechanismen umgehen.

Ariel Fogel, Omer Hofman, Eilon Cohen, Roman Vainshtein2026-03-10🤖 cs.LG

SDFed: Bridging Local Global Discrepancy via Subspace Refinement and Divergence Control in Federated Prompt Learning

Das Paper stellt SDFed vor, ein heterogenes Framework für das federierte Prompt-Learning, das durch Subspace-Refinement und Divergenzkontrolle die Diskrepanz zwischen lokalen und globalen Repräsentationen überbrückt, indem es variable lokale Prompts bei gleichzeitiger Beibehaltung eines festen globalen Prompts ermöglicht.

Yicheng Di, Wei Yuan, Tieke He, Yuan Liu, Hongzhi Yin2026-03-10🤖 cs.LG

Discovering Semantic Latent Structures in Psychological Scales: A Response-Free Pathway to Efficient Simplification

Diese Studie stellt einen reaktionsfreien Framework vor, der mithilfe von Topic Modeling und semantischen Embeddings psychologische Skalen effizient vereinfacht, indem sie die inhärente semantische Struktur der Items nutzt, um die Skalenlänge im Durchschnitt um 60,5 % zu reduzieren, ohne dabei die psychometrische Güte oder die zugrundeliegenden Konstrukte zu beeinträchtigen.

Bo Wang, Yuxuan Zhang, Yueqin Hu, Hanchao Hou, Kaiping Peng, Shiguang Ni2026-03-10🤖 cs.LG

Mean Flow Policy with Instantaneous Velocity Constraint for One-step Action Generation

Die Arbeit stellt die Mean Velocity Policy (MVP) vor, eine neue generative Politik, die durch die Modellierung eines mittleren Geschwindigkeitsfeldes unter einer instantanen Geschwindigkeitsbeschränkung (IVC) sowohl eine hochexpressive als auch extrem schnelle Ein-Schritt-Aktionsgenerierung in der robotischen Manipulation ermöglicht.

Guojian Zhan, Letian Tao, Pengcheng Wang, Yixiao Wang, Yiheng Li, Yuxin Chen, Hongyang Li, Masayoshi Tomizuka, Shengbo Eben Li2026-03-10🤖 cs.LG

Why Code, Why Now: Learnability, Computability, and the Real Limits of Machine Learning

Das Papier argumentiert, dass der Erfolg von Code-Generierung im Vergleich zu Reinforcement Learning auf einer hierarchischen Lernbarkeit beruht, die durch die Informationsstruktur und die Verfügbarkeit von Feedback bestimmt wird, und zeigt auf, dass die Grenzen des maschinellen Lernens weniger von der Modellgröße als vielmehr von der grundlegenden Lernbarkeit der Aufgaben abhängen.

Zhimin Zhao2026-03-10🤖 cs.LG

Accelerated Predictive Coding Networks via Direct Kolen-Pollack Feedback Alignment

Die vorgestellte Arbeit führt Direct Kolen-Pollack Predictive Coding (DKP-PC) ein, einen effizienteren und skalierbaren Algorithmus, der durch direkte Lernfeedbackverbindungen die zeitliche Komplexität der Fehlerausbreitung von O(L) auf O(1) reduziert und gleichzeitig die Lokaliät der Updates sowie die Leistungsfähigkeit gegenüber herkömmlichen Predictive-Coding-Methoden verbessert.

Davide Casnici, Martin Lefebvre, Justin Dauwels, Charlotte Frenkel2026-03-10🤖 cs.LG