A Trust-Region Interior-Point Stochastic Sequential Quadratic Programming Method

Dieses Paper stellt eine neue Trust-Region-Innenpunkt-Stochastische-Sequentielle-Quadratische-Programmierung-Methode (TR-IP-SSQP) vor, die stochastische Zielfunktionen mit deterministischen nichtlinearen Nebenbedingungen löst, globale Konvergenz unter Standardannahmen garantiert und ihre praktische Leistungsfähigkeit an CUTEst-Problemen sowie logistischen Regressionen demonstriert.

Yuchen Fang, Jihun Kim, Sen Na, James Demmel, Javad Lavaei2026-03-12🔢 math

Why Does It Look There? Structured Explanations for Image Classification

Die Arbeit stellt I2X vor, ein Framework, das aus unstrukturierten Interpretierbarkeitsmethoden strukturierte Erklärungen für Bildklassifizierungsmodelle ableitet, um deren Entscheidungsfindung während des Trainings nachvollziehbar zu machen und durch gezielte Optimierung der unsicheren Prototypen die Vorhersagegenauigkeit zu verbessern.

Jiarui Li, Zixiang Yin, Samuel J Landry, Zhengming Ding, Ramgopal R. Mettu2026-03-12🤖 cs.LG

One Adapter for All: Towards Unified Representation in Step-Imbalanced Class-Incremental Learning

Die Arbeit stellt „One-A" vor, ein einheitliches Framework für das schrittweise inkrementelle Lernen bei Klassenungleichgewicht, das durch asymmetrische Subraumausrichtung und richtungsabhängiges Gating stabile Updates für große Aufgaben mit plastischen Anpassungen für kleine Aufgaben in einem einzigen Adapter vereint, um die Leistung zu verbessern und die Inferenzkosten konstant zu halten.

Xiaoyan Zhang, Jiangpeng He2026-03-12🤖 cs.LG

Discovery of a Hematopoietic Manifold in scGPT Yields a Method for Extracting Performant Algorithms from Biological Foundation Model Internals

Die Studie präsentiert eine dreistufige Methode zur Extraktion eines kompakten, hochleistungsfähigen hämatopoetischen Algorithmus aus dem Foundation-Modell scGPT mittels mechanischer Interpretierbarkeit, der ohne erneutes Training des Ziel-Datensatzes die Leistung bestehender Methoden übertrifft und biologisch interpretierbare Genprogramme offenbart.

Ihor Kendiukhov2026-03-12🧬 q-bio

Robust Post-Training for Generative Recommenders: Why Exponential Reward-Weighted SFT Outperforms RLHF

Diese Arbeit zeigt, dass exponentiell reward-gewichtetes SFT (Supervised Fine-Tuning) eine robustere, skalierbare und theoretisch fundierte Alternative zu RLHF für generative Empfehlungssysteme darstellt, da es Reward-Hacking vermeidet, keine Propensity-Scores benötigt und den Trade-off zwischen Robustheit und Verbesserung durch einen einzigen interpretierbaren Hyperparameter steuert.

Keertana Chidambaram, Sanath Kumar Krishnamurthy, Qiuling Xu, Ko-Jen Hsiao, Moumita Bhattacharya2026-03-12🤖 cs.LG

GSVD for Geometry-Grounded Dataset Comparison: An Alignment Angle Is All You Need

Diese Arbeit stellt eine neue Methode vor, die die verallgemeinerte Singulärwertzerlegung (GSVD) nutzt, um einen interpretierbaren „Winkel-Score" zu berechnen, der für jede einzelne Stichprobe quantifiziert, ob sie eher durch den einen oder den anderen Datensatz geometrisch erklärt wird.

Eduarda de Souza Marques, Arthur Sobrinho Ferreira da Rocha, Joao Paixao, Heudson Mirandola, Daniel Sadoc Menasche2026-03-12🤖 cs.LG

Quantum entanglement provides a competitive advantage in adversarial games

Die Studie zeigt, dass Quantenverschränkung in einem hybriden Quanten-Klassischen-Agenten für das Spiel Pong zu einer konsistenten Leistungssteigerung gegenüber separablen Quantenschaltungen und klassischen neuronalen Netzen führt, was die Verschränkung als wertvolle Ressource für das Repräsentationslernen in kompetitiven Reinforcement-Learning-Szenarien etabliert.

Peiyong Wang, Kieran Hymas, James Quach2026-03-12⚛️ quant-ph

Hybrid Self-evolving Structured Memory for GUI Agents

Die Arbeit stellt HyMEM vor, ein hybrides, selbstentwickelndes, graphbasiertes Gedächtnis, das diskrete symbolische Knoten mit kontinuierlichen Embeddings kombiniert, um GUI-Agenten durch strukturierte Mehrhop-Abfragen und dynamische Aktualisierungen zu verbessern und so Open-Source-Modelle mit 7B/8B-Parametern in die Lage zu versetzen, leistungsstarke geschlossene Modelle wie Gemini 2.5 Pro Vision und GPT-4o zu übertreffen.

Sibo Zhu, Wenyi Wu, Kun Zhou, Stephen Wang, Biwei Huang2026-03-12🤖 cs.AI