Discovering Semantic Latent Structures in Psychological Scales: A Response-Free Pathway to Efficient Simplification

Diese Studie stellt einen reaktionsfreien Framework vor, der mithilfe von Topic Modeling und semantischen Embeddings psychologische Skalen effizient vereinfacht, indem sie die inhärente semantische Struktur der Items nutzt, um die Skalenlänge im Durchschnitt um 60,5 % zu reduzieren, ohne dabei die psychometrische Güte oder die zugrundeliegenden Konstrukte zu beeinträchtigen.

Bo Wang, Yuxuan Zhang, Yueqin Hu, Hanchao Hou, Kaiping Peng, Shiguang Ni2026-03-10🤖 cs.LG

Why Code, Why Now: Learnability, Computability, and the Real Limits of Machine Learning

Das Papier argumentiert, dass der Erfolg von Code-Generierung im Vergleich zu Reinforcement Learning auf einer hierarchischen Lernbarkeit beruht, die durch die Informationsstruktur und die Verfügbarkeit von Feedback bestimmt wird, und zeigt auf, dass die Grenzen des maschinellen Lernens weniger von der Modellgröße als vielmehr von der grundlegenden Lernbarkeit der Aufgaben abhängen.

Zhimin Zhao2026-03-10🤖 cs.LG

Understand Then Memory: A Cognitive Gist-Driven RAG Framework with Global Semantic Diffusion

Das Paper stellt CogitoRAG vor, ein RAG-Framework, das menschliche kognitive Gedächtnisprozesse nachahmt, indem es semantische Gist-Extraktion, einen multidimensionalen Wissensgraphen und einen Diffusionsmechanismus nutzt, um bei komplexen Fragen die semantische Integrität zu bewahren und die Leistung gegenüber bestehenden Methoden signifikant zu steigern.

Pengcheng Zhou, Haochen Li, Zhiqiang Nie, JiaLe Chen, Qing Gong, Weizhen Zhang, Chun Yu2026-03-10💬 cs.CL

Emotion Collider: Dual Hyperbolic Mirror Manifolds for Sentiment Recovery via Anti Emotion Reflection

Die Arbeit stellt EC-Net vor, ein hyperbolisches Hypergraph-Framework, das durch die Modellierung von Modalitätshierarchien in Poincaré-Kugel-Einbettungen und bidirektionale Hypergraph-Nachrichtenübertragung robuste und genaue multimodale Emotionserkennung auch bei verrauschten oder unvollständigen Daten ermöglicht.

Rong Fu, Ziming Wang, Shuo Yin, Haiyun Wei, Kun Liu, Xianda Li, Zeli Su, Simon Fong2026-03-10🤖 cs.LG

Condition-Gated Reasoning for Context-Dependent Biomedical Question Answering

Die Autoren stellen mit CondMedQA den ersten Benchmark für kontextabhängige biomedizinische Fragen vor und entwickeln das Condition-Gated Reasoning (CGR)-Framework, das durch bedingungsbasierte Pfadsteuerung in Wissensgraphen zuverlässigere medizinische Schlussfolgerungen ermöglicht.

Jash Rajesh Parekh, Wonbin Kweon, Joey Chan, Rezarta Islamaj, Robert Leaman, Pengcheng Jiang, Chih-Hsuan Wei, Zhizheng Wang, Zhiyong Lu, Jiawei Han2026-03-10💬 cs.CL

MrBERT: Modern Multilingual Encoders via Vocabulary, Domain, and Dimensional Adaptation

Die Autoren stellen MrBERT vor, eine Familie effizienter multilingualer Encoder auf ModernBERT-Basis, die durch gezielte Anpassung an 35 Sprachen sowie spezialisierte Domänen und die Integration von Matryoshka-Repräsentationslernen sowohl state-of-the-art-Leistung als auch kosteneffiziente Inferenz ermöglicht.

Daniel Tamayo, Iñaki Lacunza, Paula Rivera-Hidalgo, Severino Da Dalt, Javier Aula-Blasco, Aitor Gonzalez-Agirre, Marta Villegas2026-03-10🤖 cs.LG

KVSlimmer: Theoretical Insights and Practical Optimizations for Asymmetric KV Merging

Das Paper stellt KVSlimmer vor, einen theoretisch fundierten und gradientenfreien Algorithmus zur effizienten Komprimierung von KV-Caches in großen Sprachmodellen, der durch eine geschlossene Formel die Hessian-Informationen exakt erfasst und dabei sowohl die Speicher- als auch die Latenzkosten signifikant senkt, ohne die Leistung einzubüßen.

Lianjun Liu, Hongli An, Weiqi Yan, Xin Du, Shengchuan Zhang, Huazhong Liu, Yunshan Zhong2026-03-10💬 cs.CL

No Memorization, No Detection: Output Distribution-Based Contamination Detection in Small Language Models

Die Studie zeigt, dass die Methode CDD zur Erkennung von Datenkontamination in kleinen Sprachmodellen (70M–410M Parameter) in den meisten getesteten Szenarien nur zufällige Ergebnisse liefert und dabei von etablierten Wahrscheinlichkeitsmethoden wie Perplexity und Min-k% Prob übertroffen wird, da ihre Wirksamkeit kritisch von der Entstehung wortwörtlicher Memorierung abhängt.

Omer Sela (Tel Aviv University)2026-03-10💬 cs.CL