TildeOpen LLM: Leveraging Curriculum Learning to Achieve Equitable Language Representation

Dit artikel introduceert TildeOpen LLM, een open-weight foundation model met 30 miljard parameters dat door middel van curriculum learning en data-oversampling is getraind om de prestaties en taalevenwicht voor 34 Europese talen, met name minder gebruikte talen, aanzienlijk te verbeteren zonder extra rekencapaciteit.

Toms Bergmanis, Martins Kronis, Ingus J\=anis Pretkalninš, D\=avis Nicmanis, Jelizaveta Jelinska, Roberts Rozis, Rinalds V\=iksna, M\=arcis Pinnis2026-03-10💬 cs.CL

How Much Do LLMs Hallucinate in Document Q&A Scenarios? A 172-Billion-Token Study Across Temperatures, Context Lengths, and Hardware Platforms

Deze studie, gebaseerd op een evaluatie van 172 miljard tokens, onthult dat hallucinaties in documentgebaseerde vragenbeantwoording aanzienlijk toenemen bij langere contextvensters en dat modelkeuze de belangrijkste factor is, terwijl hardwareplatforms en temperatuur-instellingen slechts een beperkt effect hebben op de nauwkeurigheid.

JV Roig2026-03-10💬 cs.CL