Learning Transferable Sensor Models via Language-Informed Pretraining

Dit paper introduceert SLIP, een open-source framework dat door taal-informeerde pretraining en een flexibele patch-embedder transferleerbare sensorrepresentaties leert die variabele invoer ondersteunen en superieure prestaties leveren in zero-shot transfer, signaalcaptioning en sensorgebaseerde vragenbeantwoording.

Yuliang Chen, Arvind Pillai, Yu Yvonne Wu, Tess Z. Griffin, Lisa Marsch, Michael V. Heinz, Nicholas C. Jacobson, Andrew Campbell2026-03-13🤖 cs.AI

Uncovering Locally Low-dimensional Structure in Networks by Locally Optimal Spectral Embedding

Dit paper introduceert Local Adjacency Spectral Embedding (LASE), een methode die lokale laagdimensionale structuren in netwerken blootlegt door een gewogen spectrale decompositie toe te passen, waardoor de beperkingen van globale benaderingen worden overwonnen en de lokale reconstructie en visualisatie aanzienlijk worden verbeterd.

Hannah Sansford, Nick Whiteley, Patrick Rubin-Delanchy2026-03-13📊 stat

Decentralized Orchestration Architecture for Fluid Computing: A Secure Distributed AI Use Case

Dit paper introduceert een gedecentraliseerde, domein-agnostische orkestratiearchitectuur voor Fluid Computing die multi-domein samenwerking mogelijk maakt en Byzantine-beveiliging verbetert via een SDN-gestuurde anomaliedetectie (FU-HST) voor decentrale federatief leren.

Diego Cajaraville-Aboy, Ana Fernández-Vilas, Rebeca P. Díaz-Redondo, Manuel Fernández-Veiga, Pablo Picallo-López2026-03-13🤖 cs.LG

Deep Learning-Based Metamodeling of Nonlinear Stochastic Dynamic Systems under Parametric and Predictive Uncertainty

Dit paper introduceert drie deep learning-gebaseerde metamodeleringskaders die parametrische en voorspellende onzekerheid tegelijkertijd adresseren voor niet-lineaire dynamische structurele systemen onder aardbevingen, waarbij de MPNN-LSTM en AE-LSTM architecturen uitstekende prestaties leverden voor complexe constructies en een betrouwbare schatting van voorspellingsfouten mogelijk maakten.

Haimiti Atila, Seymour M. J. Spence2026-03-13🤖 cs.LG

Slow-Fast Inference: Training-Free Inference Acceleration via Within-Sentence Support Stability

Het artikel introduceert Slow-Fast Inference, een trainingsvrij raamwerk dat de inferentieversnelling bereikt door generatie te splitsen in frequente snelle stappen met een compacte geheugengebruik en zeldzame langzame stappen die de context bij semantische grenzen ververst, waardoor de doorvoer met 1,6 tot 14,4 keer toeneemt zonder kwaliteitsverlies.

Xingyu Xie, Zhaochen Yu, Yue Liao, Tao Wang, Kim-Chuan Toh, Shuicheng Yan2026-03-13🤖 cs.LG