Emotion Collider: Dual Hyperbolic Mirror Manifolds for Sentiment Recovery via Anti Emotion Reflection

Het artikel introduceert Emotion Collider (EC-Net), een hyperbolisch hypergraafkader dat hiërarchische modale relaties en bidirectionele berichtuitwisseling combineert met contrastief leren om robuuste en nauwkeurige sentimentherstelmodellen te realiseren, zelfs bij aanwezigheid van ruis of ontbrekende modaliteiten.

Rong Fu, Ziming Wang, Shuo Yin, Haiyun Wei, Kun Liu, Xianda Li, Zeli Su, Simon FongTue, 10 Ma🤖 cs.LG

Condition-Gated Reasoning for Context-Dependent Biomedical Question Answering

Dit paper introduceert CondMedQA, het eerste benchmark voor conditioneel biomedisch vragen beantwoorden, en Condition-Gated Reasoning (CGR), een nieuw raamwerk dat kennisgrafiek-paden selectief activeert of verwijdert op basis van patiëntspecifieke omstandigheden om de betrouwbaarheid van medische redenering te verbeteren.

Jash Rajesh Parekh, Wonbin Kweon, Joey Chan, Rezarta Islamaj, Robert Leaman, Pengcheng Jiang, Chih-Hsuan Wei, Zhizheng Wang, Zhiyong Lu, Jiawei HanTue, 10 Ma💬 cs.CL

MrBERT: Modern Multilingual Encoders via Vocabulary, Domain, and Dimensional Adaptation

Deze paper introduceert MrBERT, een familie van moderne meertalige encodermodellen die door middel van vocabulaire-, domein- en dimensionale aanpassing, inclusief Matryoshka Representation Learning, state-of-the-art prestaties bereikt op Catalaanse en Spaanse taken en gespecialiseerde domeinen zoals biomedische en juridische toepassingen.

Daniel Tamayo, Iñaki Lacunza, Paula Rivera-Hidalgo, Severino Da Dalt, Javier Aula-Blasco, Aitor Gonzalez-Agirre, Marta VillegasTue, 10 Ma🤖 cs.LG

KVSlimmer: Theoretical Insights and Practical Optimizations for Asymmetric KV Merging

Dit paper introduceert KVSlimmer, een theoretisch onderbouwde en gradient-vrije methode voor asymmetrische KV-merging die de prestaties van grote taalmodellen verbetert door de spectrale energie van projectiegewichten te analyseren, waardoor zowel de geheugengebruik als de latentie aanzienlijk worden verlaagd zonder in te leveren op kwaliteit.

Lianjun Liu, Hongli An, Weiqi Yan, Xin Du, Shengchuan Zhang, Huazhong Liu, Yunshan ZhongTue, 10 Ma💬 cs.CL

ARC-AGI-2 Technical Report

Dit paper introduceert een transformer-gebaseerd systeem dat de prestaties op ARC-AGI-2 aanzienlijk verbetert door neurale inferentie te combineren met structurele priors, test-tijd training en symmetrie-bewuste decoding om generalisatie buiten patroonherkenning te bereiken.

Wallyson Lemes de Oliveira, Mekhron Bobokhonov, Matteo Caorsi, Aldo Podestà, Gabriele Beltramo, Luca Crosato, Matteo Bonotto, Federica Cecchetto, Hadrien Espic, Dan Titus Salajan, Stefan Taga, Luca Pana, Joe CarthyTue, 10 Ma💬 cs.CL

Rethinking Personalization in Large Language Models at the Token Level

Dit paper introduceert PerContrast en de bijbehorende PerCE-loss, een token-niveau methode die gebruikmaakt van causale interventie om de relevantie van tokens voor personalisatie te schatten en deze tijdens het trainen adaptief te versterken, wat leidt tot aanzienlijke prestatieverbeteringen bij gepersonaliseerde grote taalmodellen.

Chenheng Zhang, Yijun Lu, Lizhe Fang, Chunyuan Zheng, Jiajun Chai, Xiaohan Wang, Guojun Yin, Wei Lin, Yisen Wang, Zhouchen LinTue, 10 Ma💬 cs.CL

Know When You're Wrong: Aligning Confidence with Correctness for LLM Error Detection

Dit paper introduceert een genormaliseerde betrouwbaarheidsscore die fouten en hallucinaties in grote taalmodellen detecteert, en onthult dat supervisie fine-tuning (SFT) betere kalibratie biedt dan versterkingsleermethoden, terwijl het een post-RL SFT-strategie voorstelt om deze betrouwbaarheid te herstellen en efficiëntere retrieval-augmented generation (RAG) mogelijk te maken.

Xie Xiaohu, Liu Xiaohu, Yao BenjaminTue, 10 Ma🤖 cs.LG