Modelling the Diachronic Emergence of Phoneme Frequency Distributions

Die Studie zeigt, dass ein stochastisches Modell der phonologischen Evolution, das funktionale Last und eine Tendenz zu einer bevorzugten Inventargröße berücksichtigt, die beobachteten statistischen Regularitäten von Phonemfrequenzen und die Beziehung zwischen Inventargröße und relativer Entropie als natürliche Folge historischer Sprachveränderungen erklären kann.

Fermín Moscoso del Prado Martín, Suchir Salhan2026-03-11💬 cs.CL

You Didn't Have to Say It like That: Subliminal Learning from Faithful Paraphrases

Die Studie zeigt, dass Sprachmodelle durch das Training auf semantisch treuen Umschreibungen subliminal Präferenzen von einem Lehrermodell übernehmen können, selbst wenn der Inhalt diese Präferenzen explizit widerspricht, was die Wirksamkeit rein inhaltsbasierter Sicherheitsfilter in Frage stellt.

Isaia Gisler (ETH Zürich), Zhonghao He (University of Cambridge), Tianyi Qiu (Peking University)2026-03-11🤖 cs.LG

Enhancing Debunking Effectiveness through LLM-based Personality Adaptation

Diese Studie stellt eine Methode vor, bei der Large Language Models genutzt werden, um Fakenews-Entlarvungen basierend auf den Big-Five-Persönlichkeitseigenschaften zu personalisieren und deren Wirksamkeit durch automatische Evaluierung zu bestätigen, wobei sich zeigt, dass solche maßgeschneiderten Botschaften überzeugender sind, gleichzeitig aber ethische Bedenken aufwerfen.

Pietro Dell'Oglio, Alessandro Bondielli, Francesco Marcelloni, Lucia C. Passaro2026-03-11🤖 cs.AI

Surgical Repair of Collapsed Attention Heads in ALiBi Transformers

Die Studie identifiziert eine systematische Kollaps-Pathologie in ALiBi-basierten BLOOM-Modellen, bei der ein Großteil der Aufmerksamkeitsköpfe nur auf den Anfangstoken reagiert, und stellt eine chirurgische Reinitialisierung vor, die durch gezieltes Zurücksetzen spezifischer Parameter die Funktionsfähigkeit der Köpfe auf einem einzelnen Consumer-GPU wiederherstellt und zeigt, dass vortrainierte Konfigurationen suboptimale lokale Minima darstellen können.

Palmer Schallon2026-03-11💬 cs.CL

Tracking Cancer Through Text: Longitudinal Extraction From Radiology Reports Using Open-Source Large Language Models

Diese Studie stellt eine vollständig open-source, lokal einsetzbare Pipeline vor, die auf dem \texttt{qwen2.5-72b}-Modell basiert und mit einer hohen Genauigkeit longitudinale Tumorinformationen aus unstrukturierten radiologischen Berichten extrahiert, wodurch Datenschutz und Reproduzierbarkeit in der klinischen Onkologie gewährleistet werden.

Luc Builtjes, Alessa Hering2026-03-11💬 cs.CL

Automatic Cardiac Risk Management Classification using large-context Electronic Patients Health Records

Diese Studie stellt einen automatisierten Klassifikationsrahmen zur kardiovaskulären Risikobewertung bei geriatrischen Patienten vor, der unstrukturierte elektronische Patientenakten nutzt und zeigt, dass eine maßgeschneiderte Transformer-Architektur traditionelle Methoden sowie generative Large Language Models übertrifft.

Jacopo Vitale, David Della Morte, Luca Bacco, Mario Merone, Mark de Groot, Saskia Haitjema, Leandro Pecchia, Bram van Es2026-03-11🤖 cs.AI

Fusing Semantic, Lexical, and Domain Perspectives for Recipe Similarity Estimation

Diese Forschung entwickelt und validiert durch Expertenbewertung eine Methode zur Schätzung der Ähnlichkeit von Rezepten, die semantische, lexikalische und domänenspezifische Aspekte wie Zutaten und Nährwerte kombiniert, um Anwendungen in der Lebensmittelindustrie und personalisierten Ernährung zu unterstützen.

Denica Kjorvezir, Danilo Najkov, Eva Valencič, Erika Jesenko, Barbara Koroišic Seljak, Tome Eftimov, Riste Stojanov2026-03-11💬 cs.CL

ESAinsTOD: A Unified End-to-End Schema-Aware Instruction-Tuning Framework for Task-Oriented Dialog Modeling

Das Paper stellt ESAinsTOD vor, ein einheitliches End-to-End-Framework für aufgabenorientierte Dialoge, das durch instruktions- und schemabewusste Ausrichtungsmechanismen sowie Vollparameter-Feinabstimmung von LLMs eine überlegene Generalisierung, Robustheit und Leistung auf verschiedenen Benchmarks und in Low-Resource-Szenarien erreicht.

Dechuan Teng, Chunlin Lu, Libo Qin, Wanxiang Che2026-03-11🤖 cs.AI

ActiveUltraFeedback: Efficient Preference Data Generation using Active Learning

Die Arbeit stellt ActiveUltraFeedback vor, eine modulare Active-Learning-Pipeline, die durch die gezielte Auswahl unsicherer oder qualitativ stark unterschiedlicher Antwortpaare hochwertige Präferenzdaten mit nur einem Sechstel des Annotationsaufwands im Vergleich zu statischen Baselines generiert und so die Leistung von Large Language Models signifikant verbessert.

Davit Melikidze, Marian Schneider, Jessica Lam, Martin Wertich, Ido Hakimi, Barna Pásztor, Andreas Krause2026-03-11🤖 cs.AI

Mousse: Rectifying the Geometry of Muon with Curvature-Aware Preconditioning

Die Arbeit stellt Mousse vor, einen neuen Optimierer, der durch die Kombination von Muons spektraler Stabilität mit Shampoons kroneckerfaktorisierter Vorbedingung die geometrische Anpassungsfähigkeit in stark konditionierten Landschaften verbessert und so das Training von Sprachmodellen um etwa 12 % beschleunigt.

Yechen Zhang, Shuhao Xing, Junhao Huang, Kai Lv, Yunhua Zhou, Xipeng Qiu, Qipeng Guo, Kai Chen2026-03-11🤖 cs.AI

MUGEN: Evaluating and Improving Multi-audio Understanding of Large Audio-Language Models

Die Arbeit stellt MUGEN vor, ein umfassendes Benchmark-System zur Evaluierung von Large Audio-Language-Modellen im Mehr-Audio-Verständnis, das signifikante Leistungseinbußen bei steigender Eingabeanzahl aufdeckt und durch trainingsfreie Strategien wie Audio-Permutational Self-Consistency in Kombination mit Chain-of-Thought die Genauigkeit nachweislich verbessert.

Chih-Kai Yang, Yun-Shao Tsai, Yu-Kai Guo, Ping-Le Tsai, Yen-Ting Piao, Hung-Wei Chen, Ting-Lin Hsiao, Yun-Man Hsu, Ke-Han Lu, Hung-yi Lee2026-03-11🤖 cs.AI

EXPLORE-Bench: Egocentric Scene Prediction with Long-Horizon Reasoning

Die Arbeit stellt EXPLORE-Bench vor, einen neuen Benchmark auf Basis realer Egocentric-Videos, der zeigt, dass multimodale Sprachmodelle bei der Vorhersage langfristiger physischer Konsequenzen aus Ego-Perspektive erhebliche Schwierigkeiten haben, während eine schrittweise Zerlegung der Aktionen die Leistung zwar verbessert, aber mit hohem Rechenaufwand einhergeht.

Chengjun Yu, Xuhan Zhu, Chaoqun Du, Pengfei Yu, Wei Zhai, Yang Cao, Zheng-Jun Zha2026-03-11🤖 cs.AI

EPIC-EuroParl-UdS: Information-Theoretic Perspectives on Translation and Interpreting

Dieser Artikel stellt eine aktualisierte und kombinierte Version des EPIC-EuroParl-UdS-Korporas vor, das um linguistische Annotationen und informationstheoretische Metriken erweitert wurde, um Forschungen zur Sprachvariation, Übersetzungsanalyse und insbesondere zur Vorhersage von Füllwörtern im Dolmetschen mittels probabilistischer Modelle zu unterstützen.

Maria Kunilovskaya, Christina Pollkläsener2026-03-11💬 cs.CL