Green-VLA: Staged Vision-Language-Action Model for Generalist Robots

Die Arbeit stellt Green-VLA vor, ein fünfstufiges Vision-Language-Action-Framework, das durch eine skalierbare Datenpipeline, ein einheitliches Aktionsinterface für verschiedene Roboterembodiments und Reinforcement-Learning-Alignment eine robuste Generalisierung und hohe Leistungsfähigkeit für den realen Einsatz von humanoiden Robotern und anderen Manipulatoren ermöglicht.

I. Apanasevich, M. Artemyev, R. Babakyan, P. Fedotova, D. Grankin, E. Kupryashin, A. Misailidi, D. Nerus, A. Nutalapati, G. Sidorov, I. Efremov, M. Gerasyov, D. Pikurov, Y. Senchenko, S. Davidenko, D. Kulikov, M. Sultankin, K. Askarbek, O. Shamanin, D. Statovoy, E. Zalyaev, I. Zorin, A. Letkin, E. Rusakov, A. Silchenko, V. Vorobyov, S. Sobolnikov, A. Postnikov2026-03-10💻 cs

Vulnerability-Amplifying Interaction Loops: a systematic failure mode in AI chatbot mental-health interactions

Die Studie stellt mit SIM-VAIL ein neues Auditierungsframework vor, das systematisch aufdeckt, wie KI-Chatbots durch sogenannte „Vulnerability-Amplifying Interaction Loops" (VAILs) psychische Vulnerabilitäten bei Nutzern über mehrere Gesprächsrunden hinweg verstärken können, und unterstreicht damit die Notwendigkeit multidimensionaler Sicherheitsbewertungen im Bereich der mentalen Gesundheit.

Veith Weilnhammer, Kevin YC Hou, Lennart Luettgau, Christopher Summerfield, Raymond Dolan, Matthew M Nour2026-03-10💻 cs

AgenticLab: A Real-World Robot Agent Platform that Can See, Think, and Act

Das Paper stellt AgenticLab vor, eine modellunabhängige Plattform und Benchmark für reale Roboter, die die Lücke zwischen Vision-Language-Modellen und zuverlässiger, geschlossener Manipulation in unstrukturierten Umgebungen schließt und dabei kritische Fehlermodi aufdeckt, die in statischen Tests unentdeckt bleiben.

Pengyuan Guo, Zhonghao Mai, Zhengtong Xu, Kaidi Zhang, Heng Zhang, Zichen Miao, Arash Ajoudani, Zachary Kingston, Qiang Qiu, Yu She2026-03-10💻 cs

Six Times to Spare: Characterizing GPU-Accelerated 5G LDPC Decoding for Edge-RSU Communications

Diese Studie zeigt, dass die GPU-Beschleunigung von 5G-LDPC-Decodierung auf kompakten Edge-Plattformen die Durchsatzleistung erheblich steigert und die CPU-Last reduziert, wodurch die Einhaltung strenger Latenzanforderungen für ultra-zuverlässige Fahrzeugkommunikation unter realistischen Randbedingungen ermöglicht wird.

Ryan Barker, Julia Boone, Tolunay Seyfi, Alireza Ebrahimi Dorcheh, Fatemeh Afghah, Joseph Boccuzzi2026-03-10💻 cs

Beyond Judgment: Exploring Large Language Models as Non-Judgmental Support for Maternal Mental Health

Diese Studie zeigt, dass Mütter Large Language Models als nicht-wertende Ressource nutzen, um emotionale Unterstützung und Bestätigung bei elterlichen Entscheidungen zu erhalten und soziale Urteile zu vermeiden, wobei sie jedoch oft menschliche Wärme bevorzugen, während LLMs insbesondere in bestimmten familiären Kontexten als sichere Alternative dienen.

Shayla Sharmin, Sadia Afrin Ratna2026-03-10💻 cs

LLM4PQC - Accurate and Efficient Synthesis of PQC Cores by Feedback-Driven LLMs

Die Arbeit stellt LLM4PQC vor, ein auf Feedback basierendes Framework, das mithilfe von Large Language Models Referenz-C-Codes für Post-Quanten-Kryptographie automatisch in synthetisierbaren HLS-Code umwandelt und durch mehrstufige Verifikation die manuelle Arbeitslast reduziert sowie die Hardware-Entwicklung beschleunigt.

Buddhi Perera, Zeng Wang, Weihua Xiao, Mohammed Nabeel, Ozgur Sinanoglu, Johann Knechtel, Ramesh Karri2026-03-10💻 cs

Move What Matters: Parameter-Efficient Domain Adaptation via Optimal Transport Flow for Collaborative Perception

Die Arbeit stellt FlowAdapt vor, einen parameter-effizienten Rahmen für die Domänenanpassung in der kooperativen V2X-Wahrnehmung, der auf Optimal-Transport-Theorie basiert und durch wasserstein-basierte Stichprobenziehung sowie progressive Wissensübertragung eine State-of-the-Art-Leistung mit nur 1 % trainierbarer Parameter erzielt.

Zesheng Jia, Jin Wang, Siao Liu, Lingzhi Li, Ziyao Huang, Yunjiang Xu, Jianping Wang2026-03-10💻 cs

Accelerating Robotic Reinforcement Learning with Agent Guidance

Die Arbeit stellt AGPS vor, ein Framework, das die skalierbare robotische Reinforcement-Learning-Training durch den Ersatz menschlicher Betreuer durch einen multimodalen Agenten beschleunigt, der als semantisches Weltmodell fungiert und die Exploration durch präzise Korrekturen und räumliche Einschränkungen effizient steuert.

Haojun Chen, Zili Zou, Chengdong Ma, Yaoxiang Pu, Haotong Zhang, Yuanpei Chen, Yaodong Yang2026-03-10💻 cs

To Mix or To Merge: Toward Multi-Domain Reinforcement Learning for Large Language Models

Die Arbeit M2RL analysiert und vergleicht die Trainingsparadigmen des gemischten Multi-Task-Reinforcement-Learning mit Verifizierbaren Belohnungen (RLVR) und des separaten Trainings mit nachfolgendem Modell-Merging für Large Language Models, wobei sie feststellt, dass domainspezifisches RLVR sich gegenseitig kaum beeinträchtigt und in rechenintensiven Bereichen synergistische Effekte zeigt.

Haoqing Wang, Xiang Long, Ziheng Li, Yilong Xu, Tingguang Li, Yehui Tang2026-03-10💻 cs

SkillsBench: Benchmarking How Well Agent Skills Work Across Diverse Tasks

Die Studie „SkillsBench" stellt ein Benchmark-System vor, das zeigt, dass kuratierte Agenten-Skills die Erfolgsrate von LLM-Agenten in 86 Aufgaben über 11 Domänen im Durchschnitt um 16,2 Prozentpunkte steigern, wobei selbstgenerierte Skills jedoch keinen Vorteil bieten und der Nutzen stark domänenspezifisch variiert.

Xiangyi Li, Wenbo Chen, Yimin Liu, Shenghan Zheng, Xiaokun Chen, Yifeng He, Yubo Li, Bingran You, Haotian Shen, Jiankai Sun, Shuyi Wang, Binxu Li, Qunhong Zeng, Di Wang, Xuandong Zhao, Yuanli Wang, Roey Ben Chaim, Zonglin Di, Yipeng Gao, Junwei He, Yizhuo He, Liqiang Jing, Luyang Kong, Xin Lan, Jiachen Li, Songlin Li, Yijiang Li, Yueqian Lin, Xinyi Liu, Xuanqing Liu, Haoran Lyu, Ze Ma, Bowei Wang, Runhui Wang, Tianyu Wang, Wengao Ye, Yue Zhang, Hanwen Xing, Yiqi Xue, Steven Dillmann, Han-chung Lee2026-03-10💻 cs

State Feedback Control of State-Delayed LPV Systems using Dynamic IQCs

Diese Arbeit stellt einen neuen Regelungsrahmen für lineare parameterabhängige Systeme mit zeitvariierenden Zustandsverzögerungen vor, der dynamische Integralquadratische Beschränkungen mit parameterabhängigen Lyapunov-Funktionen kombiniert, um einen verzögerungsabhängigen Zustandsregler zu entwerfen, der über konvexe LMI-Bedingungen eine garantierte Stabilität und verbesserte Leistung bei reduzierter Konservativität ermöglicht.

Fen Wu2026-03-10💻 cs