No Answer Needed: Predicting LLM Answer Accuracy from Question-Only Linear Probes

Dit onderzoek toont aan dat lineaire probes, die worden getraind op de activaties van grote taalmodellen direct na het lezen van een vraag maar voor het genereren van een antwoord, de nauwkeurigheid van het toekomstige antwoord en het zelfvertrouwen van het model kunnen voorspellen, hoewel deze generalisatie beperkt blijft bij wiskundige redenering.

Iván Vicente Moreno Cencerrado, Arnau Padrés Masdemont, Anton Gonzalvez Hawthorne + 2 more2026-03-04💬 cs.CL

Bridging Kolmogorov Complexity and Deep Learning: Asymptotically Optimal Description Length Objectives for Transformers

Dit paper introduceert een theoretisch raamwerk voor asymptotisch optimale beschrijvingslengte-objectieven voor Transformers, gebaseerd op Kolmogorov-complexiteit, en toont aan dat variatiele objectives weliswaar lage-complexiteit oplossingen met sterke generalisatie selecteren, maar dat standaard optimalisatie methoden moeite hebben om deze te vinden.

Peter Shaw, James Cohan, Jacob Eisenstein + 1 more2026-03-04💬 cs.CL

Death of the Novel(ty): Beyond n-Gram Novelty as a Metric for Textual Creativity

Dit onderzoek toont aan dat n-gram-nieuwheid als enige maatstaf voor tekstuele creativiteit ontoereikend is, omdat het de essentie van creativiteit (nieuwheid én geschiktheid) niet volledig vangt en bij AI-gegenereerde teksten vaak correleert met een gebrek aan pragmatiek, waardoor menselijke evaluatie of geavanceerde LLM-judges noodzakelijk zijn voor een nauwkeurige beoordeling.

Arkadiy Saakyan, Najoung Kim, Smaranda Muresan + 1 more2026-03-04💬 cs.CL