Image goal navigation / 고급 라우팅 명령 (turn-by-turn directions) 을 Input으로 활용하면, Localization 성능에 구애 받지 않는 주행 알고리즘 구현 가능diffusion model로, exploration sub-goal 후보군들을 생성할 수 있겠구나!위상 그래프를 구축하는구나.
GPS waypoints 도달 [20]turn-by-turn directions)프롬프트 튜닝에서 영감을 받은 기술을 사용하여, downstream task에 맞게 쉽게 Fine-tuning 할 수 있어요.GPS waypoints or turn-by-turn directions)의 encoding으로 대체함으로써, 동일한 목표 토큰의 공간에 내장됩니다.환경의 공간 표현을 유지하기 위한 위상 그래프low-level control를 위한 학습된 정책[23-28], 새로운 환경에서 로봇을 안내하기 위해 학습된 휴리스틱을 사용[15, 29] 

속도와 동역학이 다양한 8개의 독특한 로봇 플랫폼을 아우르고 있어요. 데이터셋에 대한 더 자세한 정보는 부록 C에서 확인할 수 있어요.relative waypoints 를 행동 공간으로 사용 

모델을 4Hz로 실행하고, PD 컨트롤러를 사용하여 예측된 웨이포인트 a^를 뒤에 이어가며 추적해요.로봇이 새로운 환경을 탐색하고 목표를 찾아가는 방법현재 관찰을 기반으로, 다양한 미래 sub goal 후보를 샘플링하는,image diffusion model에 의해 최대 성능이 달성된다는 것을 발견


continuous-time diffusion formulation을 사용하는데, 배운 노이즈 스케줄 대신에 fixed linear noise schedule을 사용해요. unweighted training objective인 Ho et al. [38, Equation 14] 및 Kingma et al. [49, Appendix K]에서 Lsimple로 불리는 것을 사용해요. classifier-free guidance [50]를 사용하고 이것이 우수한 시각적 정확도를 가진 부목표를 생성하는 데 도움이 된다는 것을 발견했어요, 이는 이전 연구 [51]와 일관됩니다.목표 지향적 휴리스틱 ( h(ot , o{si} , G, M, C ) )을 사용하여 sub-goal position들을 평가해요. (예를 들어, 배치도나 위성 BEV 이미지[15, 29] )을 고려하여, 목표에 도달할 가능성에 따라 sub-goal 후보들을 평가 드론 BEV 이미지 형태의 추가적인 맥락에 기반한 학습된 휴리스틱A*와 유사한 플래너를 사용하여 이 휴리스틱에 따라 최선의 sub-goal ( o_s^* )을 선택하고, 