Green-VLA: Staged Vision-Language-Action Model for Generalist Robots

Dit artikel introduceert Green-VLA, een gefaseerd Vision-Language-Action-framework dat via een uitgebreid curriculum en een schaalbaar dataverwerkingsproces een universeel beleid ontwikkelt voor diverse robotlichamen, waarbij veiligheid en prestaties op lange termijn worden verbeterd door RL-uitlijning en geavanceerde inferentie-mechanismen.

I. Apanasevich, M. Artemyev, R. Babakyan, P. Fedotova, D. Grankin, E. Kupryashin, A. Misailidi, D. Nerus, A. Nutalapati, G. Sidorov, I. Efremov, M. Gerasyov, D. Pikurov, Y. Senchenko, S. Davidenko, D. Kulikov, M. Sultankin, K. Askarbek, O. Shamanin, D. Statovoy, E. Zalyaev, I. Zorin, A. Letkin, E. Rusakov, A. Silchenko, V. Vorobyov, S. Sobolnikov, A. Postnikov2026-03-10💻 cs

Vulnerability-Amplifying Interaction Loops: a systematic failure mode in AI chatbot mental-health interactions

Dit artikel introduceert het SIM-VAIL-auditkader om te tonen dat AI-chatbots bij mentale gezondheidszorg vaak systematisch falen door kwetsbaarheidsversterkende interactielussen (VAILs), waarbij schadelijk gedrag geleidelijk ontstaat en afhankelijk is van de specifieke psychische kwetsbaarheid van de gebruiker.

Veith Weilnhammer, Kevin YC Hou, Lennart Luettgau, Christopher Summerfield, Raymond Dolan, Matthew M Nour2026-03-10💻 cs

AgenticLab: A Real-World Robot Agent Platform that Can See, Think, and Act

Dit paper introduceert AgenticLab, een model-onafhankelijk platform en benchmark voor robotagenten die de prestaties van vision-language-modellen in ongestructureerde, echte omgevingen evalueert en zo blootlegt dat offline tests tekortschieten in het vaststellen van fouten bij langdurige, gesloten-lus manipulatie.

Pengyuan Guo, Zhonghao Mai, Zhengtong Xu, Kaidi Zhang, Heng Zhang, Zichen Miao, Arash Ajoudani, Zachary Kingston, Qiang Qiu, Yu She2026-03-10💻 cs

Six Times to Spare: Characterizing GPU-Accelerated 5G LDPC Decoding for Edge-RSU Communications

Dit artikel toont aan dat het uitbesteden van 5G LDPC-decodering naar GPU's op compacte randplatforms de doorvoersnelheid aanzienlijk verhoogt en de CPU-belasting verlaagt, waardoor de strenge timing-eisen voor ultra-reliabele lage-latentie voertuigcommunicatie (URLLC) beter haalbaar worden.

Ryan Barker, Julia Boone, Tolunay Seyfi, Alireza Ebrahimi Dorcheh, Fatemeh Afghah, Joseph Boccuzzi2026-03-10💻 cs

Assessing Problem-Solving in HR Contexts: A Comparison Between Game-Based and Self-Report Measures

Deze studie toont aan dat er geen significante convergentie bestaat tussen zelfgerapporteerde en gedragsmatige probleemoplossingsvaardigheden, wat suggereert dat game-based assessments en zelfrapportage metingen elkaar aanvullen in plaats van elkaar vervangen bij de selectie van personeel.

Fabrizio Fornari, Eleonora Cova, Niccolò Vito Vacca, Francesco Bocci, Marcello Sarini, Luigi Caputo2026-03-10💻 cs

Conditional Diffusion Guidance under Hard Constraint: A Stochastic Analysis Approach

Deze paper introduceert een principieel raamwerk voor conditionele diffusiemodellen onder harde constraints, gebaseerd op Doob's h-transformatie en martingaaltheorie, dat twee nieuwe off-policy leeralgoritmes biedt om de driftcorrectie te schatten zonder het vooraf getrainde score-netwerk aan te passen, terwijl niet-asymptotische garanties worden geleverd voor de kwaliteit van de gegenereerde steekproeven.

Zhengyi Guo, Wenpin Tang, Renyuan Xu2026-03-10💻 cs

LLM4PQC - Accurate and Efficient Synthesis of PQC Cores by Feedback-Driven LLMs

Dit paper introduceert LLM4PQC, een feedback-gedreven framework dat grote taalmodellen gebruikt om PQC-referentiecode automatisch te refactoren naar synthesiseerbare HLS-code en te verifiëren via een hiërarchie van checks, waardoor de handmatige inspanning voor het ontwerpen van complexe post-kwantumcryptografie-hardware wordt verminderd.

Buddhi Perera, Zeng Wang, Weihua Xiao, Mohammed Nabeel, Ozgur Sinanoglu, Johann Knechtel, Ramesh Karri2026-03-10💻 cs

To Mix or To Merge: Toward Multi-Domain Reinforcement Learning for Large Language Models

Dit paper introduceert M2RL, een studie die vergelijkt of het mengen van multi-domein Reinforcement Learning met Verifieerbare Beloningen (RLVR) of het apart trainen en vervolgens samenvoegen van modellen de beste aanpak is voor het ontwikkelen van krachtige, algemene Large Language Models, waarbij wordt geconcludeerd dat domeinen vaak synergetisch werken en weinig interferentie vertonen.

Haoqing Wang, Xiang Long, Ziheng Li, Yilong Xu, Tingguang Li, Yehui Tang2026-03-10💻 cs

SkillsBench: Benchmarking How Well Agent Skills Work Across Diverse Tasks

Het paper introduceert SkillsBench, een benchmark die aantoont dat hoewel zorgvuldig samengestelde vaardigheden de prestaties van LLM-agenten aanzienlijk kunnen verbeteren, zelf gegenereerde vaardigheden doorgaans geen meerwaarde bieden en de effectiviteit sterk varieert per domein.

Xiangyi Li, Wenbo Chen, Yimin Liu, Shenghan Zheng, Xiaokun Chen, Yifeng He, Yubo Li, Bingran You, Haotian Shen, Jiankai Sun, Shuyi Wang, Binxu Li, Qunhong Zeng, Di Wang, Xuandong Zhao, Yuanli Wang, Roey Ben Chaim, Zonglin Di, Yipeng Gao, Junwei He, Yizhuo He, Liqiang Jing, Luyang Kong, Xin Lan, Jiachen Li, Songlin Li, Yijiang Li, Yueqian Lin, Xinyi Liu, Xuanqing Liu, Haoran Lyu, Ze Ma, Bowei Wang, Runhui Wang, Tianyu Wang, Wengao Ye, Yue Zhang, Hanwen Xing, Yiqi Xue, Steven Dillmann, Han-chung Lee2026-03-10💻 cs