Human-Object Interaction via Automatically Designed VLM-Guided Motion Policy
이 논문은 시각 - 언어 모델 (VLM) 을 활용하여 수동 보상 설계 없이도 정적, 동적, 관절형 물체를 포함한 다양한 장거리 인간 - 물체 상호작용을 자동으로 생성하는 최초의 통합 물리 기반 프레임워크인 'VLM-Guided Relative Movement Dynamics(RMD)'와 새로운 데이터셋 'Interplay'를 제안합니다.