ACE-Brain-0: Spatial Intelligence as a Shared Scaffold for Universal Embodiments

In dit rapport wordt ACE-Brain-0 geïntroduceerd, een universeel multimodaal groot taalmodel dat ruimtelijke intelligentie als gedeeld fundament gebruikt om diverse fysieke implementaties, zoals autonoom rijden en robotica, te verenigen via het Scaffold-Specialize-Reconcile-paradigma en GRPO, waardoor state-of-the-art prestaties worden bereikt op 24 benchmarks.

Ziyang Gong, Zehang Luo, Anke Tang + 21 more2026-03-04💬 cs.CL

Learning When to Act or Refuse: Guarding Agentic Reasoning Models for Safe Multi-Step Tool Use

Dit paper introduceert MOSAIC, een post-training framework dat agentic taalmodellen veilig maakt voor multi-stap toolgebruik door expliciete veiligheidsredenering en weigering als leerbare acties te integreren, wat resulteert in een aanzienlijke reductie van schadelijk gedrag en privacylekken zonder in te leveren op prestaties bij nuttige taken.

Aradhye Agarwal, Gurdit Siyan, Yash Pandya + 3 more2026-03-04💬 cs.CL

Scaling Knowledge Graph Construction through Synthetic Data Generation and Distillation

Dit paper introduceert SynthKG en Distill-SynthKG, een pipeline die synthetische document-KG-paren genereert om een kleiner model te trainen dat niet alleen superieure kennisgrafiek-kwaliteit levert ten opzichte van grotere baselines, maar ook de prestaties verbetert in zoekopdrachten en vraagbeantwoording via een nieuw grafiekgebaseerd ophaalframework.

Prafulla Kumar Choubey, Xin Su, Man Luo + 9 more2026-03-03💬 cs.CL

Polynomial, trigonometric, and tropical activations

Dit artikel introduceert en valideert een nieuwe familie van activeringsfuncties gebaseerd op orthonormale bases, waaronder polynomen en trigonometrische functies, die door middel van eenvoudige initialisatie stabiel kunnen worden getraind in diepe modellen zoals GPT-2 en ConvNeXt zonder explosie of verdwijning van gradiënten, terwijl ze tevens nauwkeurige benaderingen bieden voor klassieke activeringen die nuttig zijn voor fine-tuning.

Ismail Khalfaoui-Hassani, Stefan Kesselheim2026-03-03💬 cs.CL

Rewarding Doubt: A Reinforcement Learning Approach to Calibrated Confidence Expression of Large Language Models

Deze paper introduceert een nieuwe reinforcement learning-methode die grote taalmodellen direct fine-tuned om hun antwoorden op feitelijke vragen te koppelen aan nauwkeurig gekalibreerde betrouwbaarheidsinschattingen, waardoor zowel over- als ondervertrouwen wordt gestraft en de modellen een algemeen bewustzijn van hun eigen zekerheid ontwikkelen.

David Bani-Harouni, Chantal Pellegrini, Paul Stangel + 4 more2026-03-03💬 cs.CL

Not-Just-Scaling Laws: Towards a Better Understanding of the Downstream Impact of Language Model Design Decisions

Deze studie analyseert 92 open-source taalmodellen en toont aan dat het meenemen van ontwerpfactoren zoals data-samenstelling en architecturale keuzes, naast modelgrootte, de voorspelling van downstream-prestaties aanzienlijk verbetert en inzicht biedt in hoe specifieke ontwerpbeslissingen de eindcapaciteiten vormen.

Emmy Liu, Amanda Bertsch, Lintang Sutawika + 9 more2026-03-03💬 cs.CL