Emotion Collider: Dual Hyperbolic Mirror Manifolds for Sentiment Recovery via Anti Emotion Reflection

Die Arbeit stellt EC-Net vor, ein hyperbolisches Hypergraph-Framework, das durch die Modellierung von Modalitätshierarchien in Poincaré-Kugel-Einbettungen und bidirektionale Hypergraph-Nachrichtenübertragung robuste und genaue multimodale Emotionserkennung auch bei verrauschten oder unvollständigen Daten ermöglicht.

Rong Fu, Ziming Wang, Shuo Yin, Haiyun Wei, Kun Liu, Xianda Li, Zeli Su, Simon FongTue, 10 Ma🤖 cs.LG

Condition-Gated Reasoning for Context-Dependent Biomedical Question Answering

Die Autoren stellen mit CondMedQA den ersten Benchmark für kontextabhängige biomedizinische Fragen vor und entwickeln das Condition-Gated Reasoning (CGR)-Framework, das durch bedingungsbasierte Pfadsteuerung in Wissensgraphen zuverlässigere medizinische Schlussfolgerungen ermöglicht.

Jash Rajesh Parekh, Wonbin Kweon, Joey Chan, Rezarta Islamaj, Robert Leaman, Pengcheng Jiang, Chih-Hsuan Wei, Zhizheng Wang, Zhiyong Lu, Jiawei HanTue, 10 Ma💬 cs.CL

MrBERT: Modern Multilingual Encoders via Vocabulary, Domain, and Dimensional Adaptation

Die Autoren stellen MrBERT vor, eine Familie effizienter multilingualer Encoder auf ModernBERT-Basis, die durch gezielte Anpassung an 35 Sprachen sowie spezialisierte Domänen und die Integration von Matryoshka-Repräsentationslernen sowohl state-of-the-art-Leistung als auch kosteneffiziente Inferenz ermöglicht.

Daniel Tamayo, Iñaki Lacunza, Paula Rivera-Hidalgo, Severino Da Dalt, Javier Aula-Blasco, Aitor Gonzalez-Agirre, Marta VillegasTue, 10 Ma🤖 cs.LG

KVSlimmer: Theoretical Insights and Practical Optimizations for Asymmetric KV Merging

Das Paper stellt KVSlimmer vor, einen theoretisch fundierten und gradientenfreien Algorithmus zur effizienten Komprimierung von KV-Caches in großen Sprachmodellen, der durch eine geschlossene Formel die Hessian-Informationen exakt erfasst und dabei sowohl die Speicher- als auch die Latenzkosten signifikant senkt, ohne die Leistung einzubüßen.

Lianjun Liu, Hongli An, Weiqi Yan, Xin Du, Shengchuan Zhang, Huazhong Liu, Yunshan ZhongTue, 10 Ma💬 cs.CL

No Memorization, No Detection: Output Distribution-Based Contamination Detection in Small Language Models

Die Studie zeigt, dass die Methode CDD zur Erkennung von Datenkontamination in kleinen Sprachmodellen (70M–410M Parameter) in den meisten getesteten Szenarien nur zufällige Ergebnisse liefert und dabei von etablierten Wahrscheinlichkeitsmethoden wie Perplexity und Min-k% Prob übertroffen wird, da ihre Wirksamkeit kritisch von der Entstehung wortwörtlicher Memorierung abhängt.

Omer Sela (Tel Aviv University)Tue, 10 Ma💬 cs.CL

ARC-AGI-2 Technical Report

Dieser technische Bericht stellt ein transformerbasiertes System vor, das durch die Kombination von Sequenzmodellierung, gruppenbasierten Augmentierungen, Testzeit-Training mit LoRA und symmetriebewusstem Decodieren die Leistung beim ARC-AGI-2-Problem signifikant verbessert und sich menschlicher Generalisierung annähert.

Wallyson Lemes de Oliveira, Mekhron Bobokhonov, Matteo Caorsi, Aldo Podestà, Gabriele Beltramo, Luca Crosato, Matteo Bonotto, Federica Cecchetto, Hadrien Espic, Dan Titus Salajan, Stefan Taga, Luca Pana, Joe CarthyTue, 10 Ma💬 cs.CL

A Coin Flip for Safety: LLM Judges Fail to Reliably Measure Adversarial Robustness

Die Studie zeigt, dass LLM-basierte Richter bei der Bewertung der adversären Robustheit von KI-Modellen aufgrund von Verteilungsverschiebungen oft nur zufällige Ergebnisse liefern und viele Angriffe deren Schwächen ausnutzen, weshalb die Autoren mit ReliableBench und JudgeStressTest neue, zuverlässigere Evaluierungsstandards vorschlagen.

Leo Schwinn, Moritz Ladenburger, Tim Beyer, Mehrnaz Mofakhami, Gauthier Gidel, Stephan GünnemannTue, 10 Ma💬 cs.CL

Know When You're Wrong: Aligning Confidence with Correctness for LLM Error Detection

Diese Arbeit stellt einen normalisierten Konfidenzscore vor, der Fehler in Large Language Models zuverlässig erkennt, zeigt, dass Reinforcement-Learning-Methoden zu übermäßigem Selbstvertrauen führen, und schlägt eine Nachschulung mit Selbst-Distillation vor, um die Kalibrierung wiederherzustellen und die Effizienz von Retrieval-Augmented Generation zu steigern.

Xie Xiaohu, Liu Xiaohu, Yao BenjaminTue, 10 Ma🤖 cs.LG