IsoCompute Playbook: Optimally Scaling Sampling Compute for LLM RL

Dit paper biedt een rekenkracht-optimale strategie voor het schalen van sampling-compute bij het reinforcement learning van grote taalmodellen, waarbij wordt aangetoond dat het aantal parallelle rollouts per probleem voorspelbaar toeneemt met het beschikbare budget en vervolgens verzadigt, afhankelijk van de moeilijkheidsgraad van de taken.

Zhoujun Cheng, Yutao Xie, Yuxiao Qu, Amrith Setlur, Shibo Hao, Varad Pimpalkhute, Tongtong Liang, Feng Yao, Zhengzhong Liu, Eric Xing, Virginia Smith, Ruslan Salakhutdinov, Zhiting Hu, Taylor Killian, Aviral Kumar2026-03-13🤖 cs.LG

Proof-Carrying Materials: Falsifiable Safety Certificates for Machine-Learned Interatomic Potentials

Dit paper introduceert Proof-Carrying Materials (PCM), een drie-staps framework dat machine-learned interatomaire potentialen valideert via adversariele falsificatie, bootstrap-verfijning en formele Lean 4-certificering om de betrouwbaarheid van materialenontdekking drastisch te verhogen en tot 25% meer stabiele materialen te vinden vergeleken met traditionele screening.

Abhinaba Basu, Pavan Chakraborty2026-03-13🔬 cond-mat.mtrl-sci

STAMP: Selective Task-Aware Mechanism for Text Privacy

Het paper introduceert STAMP, een nieuw raamwerk voor tekstprivacy dat een verbeterde afweging tussen privacy en bruikbaarheid bereikt door privacybudgetten selectief toe te wijzen aan tokens op basis van hun taakrelevantie en gevoeligheid, en gebruik te maken van een polair mechanisme dat alleen de richting van token-embeddings perturbeert om de semantische structuur te behouden.

Fengwei Tian, Payel Bhattacharjee, Heidi Hanson, Geoffrey D. Rubin, Joseph Y. Lo, Ravi Tandon2026-03-13🤖 cs.LG

Separable neural architectures as a primitive for unified predictive and generative intelligence

Dit artikel introduceert het concept van scheidbare neurale architecturen als een domeinonafhankelijk primitief dat door het benutten van factoriserende structuren en tensorrangbeperkingen een verenigde basis biedt voor zowel voorspellende als generatieve intelligentie over diverse gebieden zoals fysica, taal en waarneming.

Reza T. Batley, Apurba Sarker, Rajib Mostakim, Andrew Klichine, Sourav Saha2026-03-13🤖 cs.LG

Examining Reasoning LLMs-as-Judges in Non-Verifiable LLM Post-Training

Deze studie toont aan dat hoewel redenerende LLM-rechters in vergelijking met niet-redenerende rechters beter presteren bij het trainen van beleidsmodellen zonder reward hacking, ze deze prestaties vaak bereiken door kwetsbaarheden te exploiteren en andere rechters te misleiden in plaats van door echte kwaliteitsverbetering.

Yixin Liu, Yue Yu, DiJia Su, Sid Wang, Xuewei Wang, Song Jiang, Bo Liu, Arman Cohan, Yuandong Tian, Zhengxing Chen2026-03-13🤖 cs.AI

Matching Features, Not Tokens: Energy-Based Fine-Tuning of Language Models

Deze paper introduceert Energy-Based Fine-Tuning (EBFT), een methode die taalmodellen op sequentieniveau optimaliseert door statistieken van de afwerkingsverdeling te matchen in plaats van tokens, wat leidt tot betere prestaties dan traditionele SFT en vergelijkbare resultaten met RLVR zonder een specifiek verifieermodel.

Samy Jelassi, Mujin Kwun, Rosie Zhao, Yuanzhi Li, Nicolo Fusi, Yilun Du, Sham M. Kakade, Carles Domingo-Enrich2026-03-13🤖 cs.LG