Gist.Science
VandaagZoekenMijlpalenOver onsTestimonialsSign inDigest
  • EN
  • NL
  • DE
  • FR
  • ES
  • 中文
  • 日本語
  • 한국어
  • PT
  • IT
🤖 Category

cs.LG

11811 papers

Towards Self-Robust LLMs: Intrinsic Prompt Noise Resistance via CoIPO

Deze paper introduceert CoIPO, een methode die gebruikmaakt van contrastief leren en inverse directe voorkeursoptimalisatie om de intrinsieke weerstand van grote taalmodellen tegen ruis in prompts te verbeteren, wat resulteert in een aanzienlijke prestatieverbetering op de nieuwe NoisyPromptBench-benchmark.

Xin Yang, Letian Li, Abudukelimu Wuerkaixi + 5 more2026-03-05🤖 cs.AI

M-QUEST -- Meme Question-Understanding Evaluation on Semantics and Toxicity

Deze paper introduceert M-QUEST, een semantisch raamwerk en benchmark met 609 vraag-antwoordparen voor 307 memes, die dient om multimodale toxiciteit te evalueren en de commonsense-resoningscapaciteiten van grote taalmodellen te testen op hun vermogen om de betekenis en intentie van memes te interpreteren.

Stefano De Giorgis, Ting-Chih Chen, Filip Ilievski2026-03-05🤖 cs.AI

IntPro: A Proxy Agent for Context-Aware Intent Understanding via Retrieval-conditioned Inference

Dit paper introduceert IntPro, een proxy-agent die contextbewuste gebruiksintenties verbetert door middel van een zoekopdracht-gestuurde inferentie die individuele intentiepatronen uit een geschiedenisbibliotheek benut via toezichtsfine-tuning en GRPO-training.

Guanming Liu, Meng Wu, Peng Zhang + 8 more2026-03-05🤖 cs.AI

Fragile Thoughts: How Large Language Models Handle Chain-of-Thought Perturbations

Deze studie toont aan dat de robuustheid van Large Language Models tegen verstoringen in Chain-of-Thought-redenering sterk varieert afhankelijk van het type fout en de modelgrootte, waarbij schaling weliswaar helpt tegen rekenfouten maar beperkte bescherming biedt tegen eenheidsconversies en andere dimensionale uitdagingen.

Ashwath Vaithinathan Aravindan, Mayank Kejriwal2026-03-05🤖 cs.AI

Prompt-Dependent Ranking of Large Language Models with Uncertainty Quantification

Deze paper introduceert een framework voor prompt-afhankelijke rangschikkingen van grote taalmodellen dat, in plaats van op vaste puntenschattingen, vertrouwen op statistisch valide onzekerheidsintervallen om betrouwbare en veilige beslissingen te ondersteunen.

Angel Rodrigo Avelar Menendez, Yufeng Liu, Xiaowu Dai2026-03-05🤖 cs.LG

Neuro-Symbolic Decoding of Neural Activity

Dit paper introduceert NEURONA, een neuro-symbolisch raamwerk dat structurele priors integreert om de nauwkeurigheid en generalisatie van fMRI-decodering van visuele concepten aanzienlijk te verbeteren.

Yanchen Wang, Joy Hsu, Ehsan Adeli + 1 more2026-03-05🤖 cs.AI

GreenPhase: A Green Learning Approach for Earthquake Phase Picking

Het artikel introduceert GreenPhase, een efficiënt en interpreteerbaar groen leermodel dat zonder backpropagation werkt en op de STEAD-dataset uitstekende prestaties levert bij aardbevingdetectie en fasepicking met een reductie van 83% in rekencost.

Yixing Wu, Shiou-Ya Wang, Dingyi Nie + 5 more2026-03-05🤖 cs.AI

Automated Measurement of Geniohyoid Muscle Thickness During Speech Using Deep Learning and Ultrasound

Dit artikel introduceert SMMA, een volledig geautomatiseerd framework dat diep leren en skeletgebaseerde kwantificering combineert om de dikte van de geniohyoïde-spier tijdens spraak nauwkeurig te meten, waardoor grootschalige studies naar spraakmotoriek en stoornissen mogelijk worden zonder handmatige annotatie.

Alisher Myrgyyassov, Bruce Xiao Wang, Yu Sun + 4 more2026-03-05🤖 cs.LG

The Theory behind UMAP?

Dit artikel corrigeert fouten in Spivaks onuitgegeven manuscript en McInnes et al.'s afleiding van UMAP door een zelfstandig document te bieden met de volledige afleiding van de metriek-realisatiefunctor en een analyse van de UMAP-algoritmeclaims.

David Wegmann2026-03-05🤖 cs.LG

Learning Order Forest for Qualitative-Attribute Data Clustering

Dit artikel introduceert de 'Learning Order Forest', een methode die gebruikmaakt van een boomachtige afstandsstructuur en een gezamenlijk leermechanisme om effectief te clusteren op basis van kwalitatieve attributen, wat resulteert in een superieure prestatie vergeleken met bestaande methoden.

Mingjie Zhao, Sen Feng, Yiqun Zhang + 3 more2026-03-05🤖 cs.AI

Towards Improved Sentence Representations using Token Graphs

Deze paper introduceert GLOT, een lichtgewicht en structureel bewust module die de pooling van token-uitvoer van bevroren grote taalmodellen verbetert door relational learning op een token-similariteitsgrafiek toe te passen, wat leidt tot superieure robuustheid en efficiëntie vergeleken met bestaande methoden.

Krishna Sri Ipsit Mantri, Carola-Bibiane Schönlieb, Zorah Lähner + 1 more2026-03-05🤖 cs.LG

Beyond Cross-Validation: Adaptive Parameter Selection for Kernel-Based Gradient Descents

Dit artikel introduceert een nieuwe, adaptieve strategie voor parameterselectie in kernel-gebaseerde gradiëntafdaalalgoritmen die, gebaseerd op empirische effectieve dimensie en geïntegreerde bias-variatieanalyse, optimale generalisatiefouten garandeert en superieur is aan bestaande methoden.

Xiaotong Liu, Yunwen Lei, Xiangyu Chang + 1 more2026-03-05🤖 cs.LG

Heterogeneous Time Constants Improve Stability in Equilibrium Propagation

Deze studie introduceert heterogene tijdstappen in Equilibrium Propagation, wat de trainingsstabiliteit en biologische realisme verbetert zonder de prestaties te schaden.

Yoshimasa Kubo, Suhani Pragnesh Modi, Smit Patel2026-03-05🤖 cs.AI

Surprisal-Rényi Free Energy

Deze paper introduceert de Surprisal-Rényi Free Energy (SRFE), een log-momentgebaseerde functionaal die de voorwaartse en omgekeerde KL-divergenties als singuliere eindpunten omvat en een expliciete mean-variance trade-off onthult die de geometrische en grote-afwijkingenstructuur onderliggende aan deze leerregimes verduidelijkt.

Shion Matsumoto, Raul Castillo, Benjamin Prada + 1 more2026-03-05🤖 cs.LG

A Short Note on a Variant of the Squint Algorithm

Dit korte artikel beschrijft een eenvoudige variant van het Squint-algoritme en bewijst dat deze een regretgrens garandeert die lijkt op die van een recente variant van het NormalHedge-algoritme.

Haipeng Luo2026-03-05🤖 cs.LG

Scalable Contrastive Causal Discovery under Unknown Soft Interventions

Deze paper introduceert een schaalbaar contrastief model voor causale ontdekking dat, ondanks onbekende zachte interventies en beperkte data, een consistent globale causale structuur kan afleiden en theoretisch bewezen is om meer randen te oriënteren dan bestaande methoden.

Mingxuan Zhang, Khushi Desai, Sopho Kevlishvili + 1 more2026-03-05🤖 cs.LG

[Re] FairDICE: A Gap Between Theory And Practice

Deze replicatiestudie concludeert dat hoewel FairDICE theoretisch waardevol is voor het vinden van eerlijke compromissen in multi-objective offline RL, de oorspronkelijke experimenten door een codefout en onvoldoende specificatie van hyperparameters onbetrouwbaar waren, maar dat de methode na correctie wel effectief schaalbaar is.

Peter Adema, Karim Galliamov, Aleksey Evstratovskiy + 1 more2026-03-05🤖 cs.LG

Half the Nonlinearity Is Wasted: Measuring and Reallocating the Transformer's MLP Budget

Dit onderzoek toont aan dat een aanzienlijk deel van de niet-lineariteit in transformer-MLP's overbodig is en dat het dynamisch vervangen ervan door lineaire substituten, gebaseerd op context, de rekenkosten kan verlagen of zelfs de prestaties kan verbeteren.

Peter Balogh2026-03-05🤖 cs.LG

Graph Hopfield Networks: Energy-Based Node Classification with Associative Memory

Dit artikel introduceert Graph Hopfield Networks, een energiegebaseerd model dat associatief geheugen koppelt aan grafen-Laplaciaanse gladmaking voor nodenclassificatie, wat leidt tot verbeterde prestaties op schaarse netwerken en robuustheid onder feature-maskering.

Abinav Rao, Alex Wa, Rishi Athavale2026-03-05🤖 cs.AI

Biased Generalization in Diffusion Models

Dit paper toont aan dat diffusiemodellen tijdens het trainen een fase van 'bevooroordeelde generalisatie' doormaken waarbij de testfout daalt terwijl de gegenereerde samples onterecht te veel lijken op de trainingsdata, wat betekent dat stoppen op het minimum van de testfout onvoldoende is voor privacykritische toepassingen.

Jerome Garnier-Brun, Luca Biggio, Davide Beltrame + 2 more2026-03-05🤖 cs.LG
← VorigeVolgende →

Vond je deze uitleg goed? Ontvang de beste elke week.

Check je inbox om je aanmelding te bevestigen.

Er ging iets mis. Opnieuw proberen?

Geen spam, altijd opzegbaar.

Gist.Science
Over onsTestimonialsPrivacyDisclaimerContact

Met dank aan arXiv, bioRxiv en medRxiv voor het gebruik van hun open access interoperabiliteit.

Gist.Science is a product of Bition B.V.
Verdunplein 17, 5627SZ Eindhoven
KvK: 95743731 | BTW-ID: NL867271966B01
mail@gist.science

Gemaakt in Nederland 🇳🇱