Decoding Partial Differential Equations: Cross-Modal Adaptation of Decoder-only Models to PDEs

Deze studie toont aan dat decoder-only modellen, ondanks hun succes in taal, slechter presteren dan encoder-only modellen bij het oplossen van partiële differentiaalvergelijkingen, maar dat deze kloof kan worden gedicht door twee nieuwe methoden, Parallel Flipping en Sequence Doubling, die bidirectionaliteit nabootsen.

Paloma García-de-Herreros, Philipp Slusallek, Dietrich Klakow, Vagrant Gautam2026-03-09🤖 cs.LG

Do LLMs Really Know What They Don't Know? Internal States Mainly Reflect Knowledge Recall Rather Than Truthfulness

Dit paper betoogt dat de interne staten van LLM's voornamelijk reflecteren of het model parametrische kennis herinnert in plaats van de waarheid van de output, waardoor hallucinaties die voortkomen uit valse associaties (AH's) moeilijk te onderscheiden zijn van feitelijke antwoorden, terwijl hallucinaties zonder parametrische grond (UH's) wel detecteerbaar zijn.

Chi Seng Cheang, Hou Pong Chan, Wenxuan Zhang, Yang Deng2026-03-09💬 cs.CL

Just-In-Time Objectives: A General Approach for Specialized AI Interactions

Dit paper introduceert 'Just-In-Time Objectives', een architectuur die door passieve observatie van gebruikersgedrag specifieke doelen afleidt om grote taalmodellen direct te specialiseren in het genereren van hoogwaardige, op maat gemaakte tools en antwoorden die significant beter presteren dan standaard LLM-chatbots.

Michelle S. Lam, Omar Shaikh, Hallie Xu, Alice Guo, Diyi Yang, Jeffrey Heer, James A. Landay, Michael S. Bernstein2026-03-09🤖 cs.AI

Shoot First, Ask Questions Later? Building Rational Agents that Explore and Act Like People

Dit paper introduceert een nieuwe aanpak met Monte Carlo-inferentie en Bayesiaans experimenteel ontwerp om taalkundige modellen te verbeteren in strategische informatievraag- en actie-taken, waardoor ze in spelletjes als Battleship en Guess Who? beter presteren dan mensen en geavanceerdere modellen, vaak tegen een fractie van de kosten.

Gabriel Grand, Valerio Pepe, Jacob Andreas, Joshua B. Tenenbaum2026-03-09🤖 cs.AI

Activation-Space Personality Steering: Hybrid Layer Selection for Stable Trait Control in LLMs

Dit onderzoek presenteert een innovatieve methode om de persoonlijkheid van grote taalmodellen te sturen door de Big Five-personality traits te koppelen aan specifieke laagactivaties, waardoor een stabiele en vloeiende aanpassing van het gedrag mogelijk wordt zonder de algemene modelcapaciteiten te beïnvloeden.

Pranav Bhandari, Nicolas Fay, Sanjeevan Selvaganapathy, Amitava Datta, Usman Naseem, Mehwish Nasim2026-03-09💬 cs.CL

SPINE: Token-Selective Test-Time Reinforcement Learning with Entropy-Band Regularization

Het artikel introduceert SPINE, een token-selectief test-tijd versterkingsleerframework dat alleen kritieke besluitvormingspunten in redeneringsketens aanpast met entropie-band regularisatie om instabiliteit en lengte-inzakking te voorkomen, waardoor de prestaties van grote taalmodellen zonder labels worden verbeterd.

Jianghao Wu, Yasmeen George, Jin Ye, Yicheng Wu, Daniel F. Schmidt, Jianfei Cai2026-03-09🤖 cs.LG