ViLAM: Distilling Vision-Language Reasoning into Attention Maps for Social Robot Navigation
이 논문은 대규모 시각 - 언어 모델 (VLM) 의 사회적 추론 능력을 중간 계층의 주석 맵으로 증류하여 사회적 준거성을 갖춘 로봇 항법을 위한 공간 비용 지도를 생성하고, 이를 통해 기존 방법 대비 성공률을 14.2% 에서 50% 까지 향상시킨 'ViLAM'이라는 새로운 방법을 제안합니다.