MEMO: Memory-Augmented Model Context Optimization for Robust Multi-Turn Multi-Agent LLM Games

Dit paper introduceert MEMO, een zelfspel-framework dat de prestaties en stabiliteit van multi-agent LLM-games verbetert door een persistent geheugen voor inzichten te combineren met een exploratiestrategie voor prompt-evolutie, wat leidt tot aanzienlijk hogere winniveaus en minder variatie in de uitkomsten.

Yunfei Xie, Kevin Wang, Bobby Cheng, Jianzhu Yao, Zhizhou Sha, Alexander Duffy, Yihan Xi, Hongyuan Mei, Cheston Tan, Chen Wei, Pramod Viswanath, Zhangyang Wang2026-03-11🤖 cs.AI

PlayWorld: Learning Robot World Models from Autonomous Play

PlayWorld is een schaalbaar, autonoom systeem dat robotwereldmodellen traint op basis van onbegeleide zelfspelerij, waardoor het fysiek consistente voorspellingen van interacties mogelijk maakt die menselijke demonstraties missen en de prestaties van robotbeleid in de echte wereld aanzienlijk verbeteren.

Tenny Yin, Zhiting Mei, Zhonghe Zheng, Miyu Yamane, David Wang, Jade Sceats, Samuel M. Bateman, Lihan Zha, Apurva Badithela, Ola Shorinwa, Anirudha Majumdar2026-03-11🤖 cs.AI

WS-Net: Weak-Signal Representation Learning and Gated Abundance Reconstruction for Hyperspectral Unmixing via State-Space and Weak Signal Attention Fusion

Dit paper introduceert WS-Net, een diep leerframework dat state-space-modelling en een zwak-signaal-attentie-mechanisme combineert om de nauwkeurigheid van hyperspectrale ontbinding te verbeteren door zwakke signaalresponsen effectief te isoleren van dominante eindleden en ruis.

Zekun Long, Ali Zia, Guanyiman Fu, Vivien Rolland, Jun Zhou2026-03-11🤖 cs.AI

From Days to Minutes: An Autonomous AI Agent Achieves Reliable Clinical Triage in Remote Patient Monitoring

Het onderzoek presenteert Sentinel, een autonoom AI-agent dat remote patient monitoring-data met een hogere gevoeligheid voor noodgevallen dan individuele clinici triageert, waardoor schaalbare en kosteneffectieve monitoring mogelijk wordt die de beperkingen van eerdere trials overbrugt.

Seunghwan Kim (AnsibleHealth Inc., San Francisco, USA), Tiffany H. Kung (AnsibleHealth Inc., San Francisco, USA, Stanford School of Medicine, Stanford, USA), Heena Verma (AnsibleHealth Inc., San Francisco, USA), Dilan Edirisinghe (AnsibleHealth Inc., San Francisco, USA), Kaveh Sedehi (AnsibleHealth Inc., San Francisco, USA), Johanna Alvarez (AnsibleHealth Inc., San Francisco, USA), Diane Shilling (AnsibleHealth Inc., San Francisco, USA), Audra Lisa Doyle (AnsibleHealth Inc., San Francisco, USA), Ajit Chary (AnsibleHealth Inc., San Francisco, USA), William Borden (AnsibleHealth Inc., San Francisco, USA, George Washington University, Washington, D.C., USA), Ming Jack Po (AnsibleHealth Inc., San Francisco, USA)2026-03-11🤖 cs.AI

Not All News Is Equal: Topic- and Event-Conditional Sentiment from Finetuned LLMs for Aluminum Price Forecasting

Deze studie toont aan dat het integreren van sentimentanalyse van nieuwsberichten, gegenereerd door een op Qwen3 gefinetuned LLM, in combinatie met traditionele tabulair data, de voorspellende nauwkeurigheid en economische meerwaarde van aluminiumprijzen aanzienlijk verbetert, vooral tijdens periodes van hoge volatiliteit.

Alvaro Paredes Amorin, Andre Python, Christoph Weisser2026-03-11🤖 cs.AI

Composed Vision-Language Retrieval for Skin Cancer Case Search via Joint Alignment of Global and Local Representations

Dit artikel introduceert een transformer-gebaseerd raamwerk voor het zoeken naar huidkankergevallen via samengestelde visueel-taalqueries, dat door middel van gezamenlijke globale en lokale uitlijning klinisch relevante case-gegevens efficiënter en nauwkeuriger identificeert dan bestaande methoden.

Yuheng Wang, Yuji Lin, Dongrun Zhu, Jiayue Cai, Sunil Kalia, Harvey Lui, Chunqi Chang, Z. Jane Wang, Tim K. Lee2026-03-11🤖 cs.AI

VIVID-Med: LLM-Supervised Structured Pretraining for Deployable Medical ViTs

VIVID-Med introduceert een efficiënt kader voor het vooraf trainen van medische vision transformers met behulp van een bevroren groot taalmodel als gestructureerde leraar, wat resulteert in een lichtgewicht, alleen-vision model dat aanzienlijk betere prestaties levert dan bestaande methoden met minder data en zonder de zware taalmodelcomponent tijdens het gebruik.

Xiyao Wang, Xiaoyu Tan, Yang Dai, Yuxuan Fu, Shuo Li, Xihe Qiu2026-03-11🤖 cs.AI

DexHiL: A Human-in-the-Loop Framework for Vision-Language-Action Model Post-Training in Dexterous Manipulation

DexHiL is een nieuw mens-in-de-lus-framework dat de prestaties van vision-language-action-modellen voor dexterous manipulatie aanzienlijk verbetert door gecoördineerde menselijke interventies op arm en hand te integreren, wat leidt tot een gemiddelde stijging van 25% in slagingspercentages ten opzichte van traditionele offline-finetuning.

Yifan Han, Zhongxi Chen, Yuxuan Zhao, Congsheng Xu, Yanming Shao, Yichuan Peng, Yao Mu, Wenzhao Lian2026-03-11🤖 cs.AI