Reasoned Safety Alignment: Ensuring Jailbreak Defense via Answer-Then-Check

Diese Arbeit stellt „Answer-Then-Check" vor, einen neuartigen Sicherheitsansatz, der durch die Nutzung eines speziell erstellten Reasoned Safety Alignment (ReSA)-Datensatzes Sprachmodelle befähigt, Antworten intern zu generieren und deren Sicherheit kritisch zu prüfen, bevor sie ausgegeben werden, wodurch die Robustheit gegen Jailbreak-Angriffe gesteigert und gleichzeitig die Überverweigerung reduziert wird, ohne die allgemeinen reasoning-Fähigkeiten zu beeinträchtigen.

Chentao Cao, Xiaojun Xu, Bo Han, Hang Li2026-03-09🤖 cs.AI

Better Late Than Never: Meta-Evaluation of Latency Metrics for Simultaneous Speech-to-Text Translation

Die Arbeit stellt eine umfassende Meta-Evaluation von Latenzmetriken für simultane Sprach-zu-Text-Übersetzung vor, identifiziert strukturelle Verzerrungen durch Segmentierung und führt mit YAAL, LongYAAL sowie dem SoftSegmenter-Tool verbesserte Lösungen und das OmniSTEval-Toolkit ein, um zuverlässigere Bewertungen zu ermöglichen.

Peter Polák, Sara Papi, Luisa Bentivogli, Ondřej Bojar2026-03-09🤖 cs.AI

LikePhys: Evaluating Intuitive Physics Understanding in Video Diffusion Models via Likelihood Preference

Die Arbeit stellt LikePhys vor, eine trainingsfreie Methode zur Bewertung des intuitiven Physikverständnisses in Video-Diffusionsmodellen durch Likelihood-Vergleiche, die zeigt, dass diese Modelle trotz aktueller Schwierigkeiten mit komplexen Dynamiken mit zunehmender Kapazität und optimierten Inferenzeinstellungen ein verbessertes Verständnis physikalischer Gesetze aufweisen.

Jianhao Yuan, Fabio Pizzati, Francesco Pinto, Lars Kunze, Ivan Laptev, Paul Newman, Philip Torr, Daniele De Martini2026-03-09🤖 cs.AI

Just-In-Time Objectives: A General Approach for Specialized AI Interactions

Die Arbeit stellt einen Ansatz vor, bei dem durch passives Beobachten des Nutzerverhaltens sofortige, spezifische Ziele abgeleitet werden, um große Sprachmodelle dynamisch auf individuelle Aufgaben zu spezialisieren und dadurch qualitativ überlegene, maßgeschneiderte Tools sowie Antworten zu generieren.

Michelle S. Lam, Omar Shaikh, Hallie Xu, Alice Guo, Diyi Yang, Jeffrey Heer, James A. Landay, Michael S. Bernstein2026-03-09🤖 cs.AI

Think with 3D: Geometric Imagination Grounded Spatial Reasoning from Limited Views

Das Papier stellt 3DThinker vor, ein Framework, das es Vision-Language-Modellen ermöglicht, durch zweistufiges Training ohne explizite 3D-Vorwissen oder -Daten räumliches 3D-Imaginieren zu erlernen und so die räumliche Schlussfolgerung aus begrenzten Ansichten zu verbessern.

Zhangquan Chen, Manyuan Zhang, Xinlei Yu, Xufang Luo, Mingze Sun, Zihao Pan, Xiang An, Yan Feng, Peng Pei, Xunliang Cai, Ruqi Huang2026-03-09🤖 cs.AI

Shoot First, Ask Questions Later? Building Rational Agents that Explore and Act Like People

Die Studie stellt fest, dass Sprachmodelle in strategischen Informationsbeschaffungsaufgaben oft hinter menschlichen Fähigkeiten zurückbleiben, und entwickelt darauf aufbauend Monte-Carlo-Inferenzstrategien, die inspiriert von der bayesschen experimentellen Designtheorie die Entscheidungsfindung und Genauigkeit von Agenten signifikant verbessern und sogar schwächere Modelle in der Lage versetzen, menschliche und fortschrittliche KI-Modelle zu übertreffen.

Gabriel Grand, Valerio Pepe, Jacob Andreas, Joshua B. Tenenbaum2026-03-09🤖 cs.AI

The Persistence of Cultural Memory: Investigating Multimodal Iconicity in Diffusion Models

Diese Arbeit stellt mit dem Cultural Reference Transformation (CRT)-Metrik einen Evaluierungsrahmen vor, der die Unterscheidung zwischen der Erkennung kultureller Referenzen und ihrer visuellen Realisierung in Diffusionsmodellen ermöglicht, um so die Komplexität von Multimodalität und kulturellem Gedächtnis jenseits einfacher Reproduktion zu erfassen.

Maria-Teresa De Rosa Palmini, Eva Cetinic2026-03-09🤖 cs.AI

Diffusion Fine-Tuning via Reparameterized Policy Gradient of the Soft Q-Function

Die Arbeit stellt SQDF vor, eine neuartige KL-regulierte Reinforcement-Learning-Methode zur Feinabstimmung von Diffusionsmodellen, die durch einen reparametrisierten Policy-Gradienten der Soft-Q-Funktion sowie weitere Innovationen wie einen Diskontfaktor und einen Replay-Puffer das Problem der Reward-Überoptimierung löst und gleichzeitig hohe Zielbelohnungen mit natürlicher Vielfalt in der Bildgenerierung vereint.

Hyeongyu Kang, Jaewoo Lee, Woocheol Shin, Kiyoung Om, Jinkyoo Park2026-03-09🤖 cs.AI

XR-DT: Extended Reality-Enhanced Digital Twin for Safe Motion Planning via Human-Aware Model Predictive Path Integral Control

Diese Arbeit stellt XR-DT vor, ein Framework für Extended Reality und Digital Twins, das eine menschenbewusste Modellprädiktive Pfadintegral-Steuerung (HA-MPPI) mit einem Transformer-basierten Vorhersagemodell kombiniert, um sichere und effiziente Navigation von mobilen Robotern in gemeinsamen Arbeitsräumen zu ermöglichen.

Tianyi Wang, Jiseop Byeon, Ahmad Yehia, Yiming Xu, Jihyung Park, Tianyi Zeng, Sikai Chen, Ziran Wang, Junfeng Jiao, Christian Claudel2026-03-09🤖 cs.AI

Whatever Remains Must Be True: Filtering Drives Reasoning in LLMs, Shaping Diversity

Die Arbeit stellt eine Methode vor, die durch die Approximation einer gefilterten Zielverteilung mittels der α\alpha-Divergenz-Familie die durch herkömmliches Reinforcement Learning verursachte Diversitätsverlust bei LLMs überwindet und so auf dem Lean-Theorembeweis-Benchmark einen neuen State-of-the-Art in Bezug auf die Abdeckung-Präzision-Pareto-Grenze erreicht.

Germán Kruszewski, Pierre Erbacher, Jos Rozen, Marc Dymetman2026-03-09🤖 cs.AI

Exploiting Spatiotemporal Properties for Efficient Event-Driven Human Pose Estimation

Diese Arbeit stellt ein rechen-effizientes, punktcloud-basiertes Framework für die ereignisgesteuerte menschliche Pose-Schätzung vor, das durch die Ausnutzung räumlich-zeitlicher Eigenschaften von Event-Streams und spezielle Module zur zeitlichen Modellierung sowie zur Kantenverstärkung die Leistung auf dem DHP19-Datensatz im Vergleich zu bestehenden Methoden signifikant verbessert.

Haoxian Zhou, Chuanzhi Xu, Langyi Chen, Pengfei Ye, Haodong Chen, Yuk Ying Chung, Qiang Qu2026-03-09🤖 cs.AI

Data-Driven Global Sensitivity Analysis for Engineering Design Based on Individual Conditional Expectations

Diese Arbeit stellt eine neue globale Sensitivitätsanalyse vor, die auf Individual Conditional Expectation (ICE)-Kurven basiert, um die durch Mittelwertbildung bei Partial Dependence Plots (PDP) verschleierten Interaktionseffekte in datengetriebenen Ingenieurmodellen, insbesondere im Luft- und Raumfahrtbereich, präziser zu erfassen und zu quantifizieren.

Pramudita Satria Palar, Paul Saves, Rommel G. Regis, Koji Shimoyama, Shigeru Obayashi, Nicolas Verstaevel, Joseph Morlier2026-03-09🤖 cs.AI

Understanding and Improving Hyperbolic Deep Reinforcement Learning

Die Arbeit identifiziert Optimierungsprobleme bei hyperbolischem Deep Reinforcement Learning, die durch große Embedding-Normen verursacht werden, und stellt Hyper++ vor, einen stabilen und effizienten Agenten mit Regularisierung, kategorischem Value-Loss und optimierten Netzwerkschichten, der auf ProcGen und Atari-5 signifikant bessere Ergebnisse als vorherige Ansätze erzielt.

Timo Klein, Thomas Lang, Andrii Shkabrii, Alexander Sturm, Kevin Sidak, Lukas Miklautz, Claudia Plant, Yllka Velaj, Sebastian Tschiatschek2026-03-09🤖 cs.AI

Agent Tools Orchestration Leaks More: Dataset, Benchmark, and Mitigation

Diese Arbeit identifiziert und analysiert das neuartige Risiko der „Tools Orchestration Privacy Risk" (TOP-R), bei dem autonome Agenten durch die Kombination nicht-sensitiver Datenfragmente sensible Informationen ableiten, und stellt mit TOP-Bench, dem H-Score sowie wirksamen Minderungsstrategien einen systematischen Rahmen zur Bewertung und Lösung dieses Problems bereit.

Yuxuan Qiao, Dongqin Liu, Hongchang Yang, Wei Zhou, Songlin Hu2026-03-09🤖 cs.AI