Just-In-Time Objectives: A General Approach for Specialized AI Interactions

Die Arbeit stellt einen Ansatz vor, bei dem durch passives Beobachten des Nutzerverhaltens sofortige, spezifische Ziele abgeleitet werden, um große Sprachmodelle dynamisch auf individuelle Aufgaben zu spezialisieren und dadurch qualitativ überlegene, maßgeschneiderte Tools sowie Antworten zu generieren.

Michelle S. Lam, Omar Shaikh, Hallie Xu, Alice Guo, Diyi Yang, Jeffrey Heer, James A. Landay, Michael S. BernsteinMon, 09 Ma🤖 cs.AI

XR-DT: Extended Reality-Enhanced Digital Twin for Safe Motion Planning via Human-Aware Model Predictive Path Integral Control

Diese Arbeit stellt XR-DT vor, ein Framework für Extended Reality und Digital Twins, das eine menschenbewusste Modellprädiktive Pfadintegral-Steuerung (HA-MPPI) mit einem Transformer-basierten Vorhersagemodell kombiniert, um sichere und effiziente Navigation von mobilen Robotern in gemeinsamen Arbeitsräumen zu ermöglichen.

Tianyi Wang, Jiseop Byeon, Ahmad Yehia, Yiming Xu, Jihyung Park, Tianyi Zeng, Sikai Chen, Ziran Wang, Junfeng Jiao, Christian ClaudelMon, 09 Ma🤖 cs.AI

Why Human Guidance Matters in Collaborative Vibe Coding

Die Studie zeigt, dass bei der kollaborativen „Vibe Coding"-Programmierung menschliche Führung durch übergeordnete Anweisungen entscheidend für den Erfolg ist, während rein KI-gesteuerte Ansätze oft scheitern und hybride Modelle am besten funktionieren, wenn Menschen die Anleitung übernehmen und die KI die Evaluierung durchführt.

Haoyu Hu, Raja Marjieh, Katherine M Collins, Chenyi Li, Thomas L. Griffiths, Ilia Sucholutsky, Nori JacobyMon, 09 Ma🤖 cs.AI

"When to Hand Off, When to Work Together": Expanding Human-Agent Co-Creative Collaboration through Concurrent Interaction

Die Studie stellt CLEO vor, ein System, das menschliche und KI-Agenten durch die Echtzeit-Interpretation paralleler Aktionen auf gemeinsamen Artefakten befähigt, dynamisch zwischen Delegation, Steuerung und gleichzeitiger Zusammenarbeit zu wechseln, um so die Grenzen der aktuellen Mensch-Agenten-Kollaboration zu überwinden.

Kihoon Son, Hyewon Lee, DaEun Choi, Yoonsu Kim, Tae Soo Kim, Yoonjoo Lee, John Joon Young Chung, HyunJoon Jung, Juho KimMon, 09 Ma🤖 cs.AI

Biometric-enabled Personalized Augmentative and Alternative Communications

Diese Studie skizziert einen Fahrplan für die Integration biometrischer Technologien in personalisierte augmentative und alternative Kommunikationssysteme, wobei sie anhand von Fallstudien zu Gesten- und Gebärdenerkennung feststellt, dass die aktuelle KI-Genauigkeit noch nicht den praktischen Anforderungen entspricht, und empfiehlt Maßnahmen zur Schließung dieser Lücke.

S. Yanushkevich, E. Berepiki, P. Ciunkiewicz, V. Shmerko, G. Wolbring, R. GuestMon, 09 Ma💻 cs

The People's Gaze: Co-Designing and Refining Gaze Gestures with General Users and Gaze Interaction Experts

Diese Studie stellt eine zweiphasige Methode vor, bei der durch Co-Design-Workshops mit Laien und anschließende Expertenvalidierung ein intuitives, auf Metaphern und einer kompositionellen Grammatik basierendes Set von 32 Blickgesten entwickelt wurde, um die natürliche Interaktion mit Eye-Tracking-Geräten zu verbessern und das Midas-Touch-Problem zu lösen.

Yaxiong Lei, Xinya Gong, Shijing He, Yafei Wang, Mohamed Khamis, Juan YeMon, 09 Ma💻 cs

From Toil to Thought: Designing for Strategic Exploration and Responsible AI in Systematic Literature Reviews

Basierend auf einer Designstudie mit erfahrenen Forschern stellt das Paper ARC vor, ein integriertes System, das durch Multi-Datenbank-Integration, transparente iterative Suche und verifizierbare KI-Unterstützung die kognitive Belastung bei systematischen Literaturübersichten reduziert und Forscher von administrativen Aufgaben hin zu strategischer Exploration befähigt.

Runlong Ye, Naaz Sibia, Angela Zavaleta Bernuy, Tingting Zhu, Carolina Nobre, Viktoria Pammer-Schindler, Michael LiutMon, 09 Ma🤖 cs.AI

CoEditor++: Instruction-based Visual Editing via Cognitive Reasoning

CoEditor++ ist ein trainingsfreies, kognitiv strukturiertes Framework, das durch die Zerlegung von Bildbearbeitungsaufgaben in „was" und „wie" sowie eine selbstreflektierende Auswahlmechanismus state-of-the-art Ergebnisse bei der instruktionsbasierten Bildbearbeitung erzielt und dabei sowohl die visuelle Konsistenz als auch die Interpretierbarkeit verbessert.

Minheng Ni, Yutao Fan, Zhengyuan Yang, Yeli Shen, Yuxiang Wei, Yaowen Zhang, Lijuan Wang, Lei Zhang, Wangmeng ZuoMon, 09 Ma💻 cs

RFM-HRI : A Multimodal Dataset of Medical Robot Failure, User Reaction and Recovery Preferences for Item Retrieval Tasks

Die Studie stellt den multimodalen RFM-HRI-Datensatz vor, der menschliche Reaktionen und Wiederherstellungspräferenzen bei Fehlern medizinischer Roboter während der Entnahme von Gegenständen erfasst, um die Grundlage für zuverlässigere Fehlererkennung und -behebung in sicherheitskritischen HRI-Szenarien zu schaffen.

Yashika Batra, Giuliano Pioldi, Promise Ekpo, Arman Sayatqyzy, Purnjay Maruur, Shalom Otieno, Kevin Ching, Angelique TaylorMon, 09 Ma💻 cs

From Risk Avoidance to User Empowerment: Reframing Safety in Generative AI for Mental Health Crises

Der Artikel kritisiert die risikovermeidende Gestaltung aktueller KI-Chatbots im Kontext psychischer Krisen und schlägt stattdessen ein empowerndes Design vor, das KI als unterstützende Brücke zur Deeskalation und Weitervermittlung an professionelle Hilfsangebote nutzt.

Benjamin Kaveladze, Arka Ghosh, Leah Ajmani, Denae Ford, Peter M Gutierrez, Jetta E Hanson, Eugenia Kim, Keertana Namuduri, Theresa Nguyen, Ebele Okoli, Teresa Rexin, Jessica L Schleider, Hongyi Shen, Jina SuhMon, 09 Ma💻 cs