Building Trust in PINNs: Error Estimation through Finite Difference Methods

Deze paper introduceert een lichtgewicht, post-hoc methode die gebruikmaakt van eindige-differentiemethoden om puntsgewijze foutenkaarten te genereren voor voorspellingen van Physics-Informed Neural Networks (PINNs) bij lineaire partiële differentiaalvergelijkingen, waardoor het vertrouwen in deze modellen wordt versterkt zonder dat de ware oplossing bekend hoeft te zijn.

Aleksander Krasowski, René P. Klausen, Aycan Celik, Sebastian Lapuschkin, Wojciech Samek, Jonas Naujoks2026-03-17🔬 physics

Can LLMs Model Incorrect Student Reasoning? A Case Study on Distractor Generation

Dit onderzoek toont aan dat grote taalmodellen effectief plausibele foutieve redeneringen van studenten kunnen modelleren voor het genereren van meerkeuze-opties, waarbij hun proces sterk overeenkomt met onderwijskundige best practices en wordt geoptimaliseerd door het expliciet aanleveren van het juiste antwoord.

Yanick Zengaffinen, Andreas Opedal, Donya Rooein, Kv Aditya Srivatsa, Shashank Sonkar, Mrinmaya Sachan2026-03-17💬 cs.CL

Physics-Informed Neural Systems for the Simulation of EUV Electromagnetic Wave Diffraction from a Lithography Mask

Dit artikel introduceert een hybride Waveguide Neural Operator (WGNO) en andere physics-informed neurale systemen die de diffractie van EUV-golven van lithografische maskers met hoge nauwkeurigheid en aanzienlijk verkorte rekentijd simuleren, waardoor het ontwerp en de optimalisatie van volgende generatie maskers worden versneld.

Vasiliy A. Es'kin, Egor V. Ivanov2026-03-17🔬 physics.app-ph

OpenSeeker: Democratizing Frontier Search Agents by Fully Open-Sourcing Training Data

OpenSeeker democratiseert de ontwikkeling van geavanceerde zoekagenten door als eerste volledig open-source model en dataset te publiceren die, ondanks het gebruik van slechts 11.7.000 synthetische trainingsstalen, prestaties op het niveau van industriële concurrenten behaalt door middel van feitelijke schaalbare QA-synthese en gedenoiste trajectsynthese.

Yuwen Du, Rui Ye, Shuo Tang, Xinyu Zhu, Yijun Lu, Yuzhu Cai, Siheng Chen2026-03-17🤖 cs.AI

From Passive Observer to Active Critic: Reinforcement Learning Elicits Process Reasoning for Robotic Manipulation

Dit paper introduceert PRIMO R1, een 7B-framework dat video-MLLM's transformeert van passieve waarnemers naar actieve critici door versterkende leerling te gebruiken voor procesredenering, waardoor het state-of-the-art prestaties bereikt op robuuste manipulatie- en faaldetectietaken.

Yibin Liu, Yaxing Lyu, Daqi Gao, Zhixuan Liang, Weiliang Tang, Shilong Mu, Xiaokang Yang, Yao Mu2026-03-17💬 cs.CL

Mixture-of-Depths Attention

Dit paper introduceert Mixture-of-Depths Attention (MoDA), een efficiënt mechanisme dat de signaalkwaliteit in diepe taalmodellen verbetert door attention-heads toegang te geven tot KV-paren uit voorgaande lagen, wat resulteert in betere prestaties met slechts een verwaarloosbare toename in rekencost.

Lianghui Zhu, Yuxin Fang, Bencheng Liao, Shijie Wang, Tianheng Cheng, Zilong Huang, Chen Chen, Lai Wei, Yutao Zeng, Ya Wang, Yi Lin, Yu Li, Xinggang Wang2026-03-17💬 cs.CL

Latent diffusion models for parameterization and data assimilation of facies-based geomodels

Dit artikel presenteert een methode voor het gebruik van latent diffusion models om geologische faciemodellen te parameteriseren en te assimileren met data, waarbij een variational autoencoder en een U-net worden ingezet om realistische, dimensiereducerende representaties te genereren die effectief worden gebruikt voor ensemble-based history matching en onzekerheidsreductie.

Guido Di Federico, Louis J. Durlofsky2026-03-16🤖 cs.AI

Evidence from fMRI Supports a Two-Phase Abstraction Process in Language Models

Dit artikel toont aan dat fMRI-onderzoek de aanwezigheid van een tweefasig abstractieproces in taalmodellen bevestigt, waarbij de eerste 'compositie'-fase tijdens training wordt gecomprimeerd en de prestaties van laag-voor-laag codering sterk correleren met de intrinsieke dimensionaliteit van de representaties, voornamelijk gedreven door compositie en niet door next-word predictie.

Emily Cheng, Richard J. Antonello2026-03-16🤖 cs.AI

Active Causal Structure Learning with Latent Variables: Towards Learning to Detour in Autonomous Robots

Dit artikel beschrijft hoe actief causaal structuurlernen met latente variabelen (ACSLWL) autonome robots in staat stelt om door het actief construeren van nieuwe interne causale modellen onverwachte obstakels, zoals transparante barrières, te omzeilen en zo een suboptimale situatie om te zetten in een voorspelbare situatie met een optimale plan.

Pablo de los Riscos, Fernando J. Corbacho2026-03-16🤖 cs.AI

Helping LLMs Improve Code Generation Using Feedback from Testing and Static Analysis

Dit paper presenteert een framework dat testen en statische analyse gebruikt om open-source LLM's te helpen bij het zelf verbeteren van gegenereerde code, waarbij wordt vastgesteld dat hoewel deze modellen vaak fouten en kwetsbaarheden introduceren en slecht zijn in het detecteren daarvan, ze aanzienlijk beter presteren bij het oplossen van deze problemen wanneer ze feedback krijgen over de fouten.

Greta Dolcetti, Vincenzo Arceri, Eleonora Iotti + 3 more2026-03-16🤖 cs.AI