단안(monocular) 이미지를 이용한 프레임 간(frame-to-frame, F2F) 시각적 주행계(visual odometry) 추정은 누적 드리프트가 전파되어 쌓이는 문제로 인해 상당한 어려움이 있다. 본 연구는 후처리 없이 카메라 궤적의 일관성(coherence)을 고려하는 새로운 단순한 방법들을 통해, F2F 단안 시각적 주행계 추정을 위한 학습 기반 접근법을 제안한다. 제안하는 네트워크는 초기 추정과 오차 완화(error relaxation)라는 두 단계로 구성된다. 첫 번째 단계에서 네트워크는 특징을 추출하기 위해 시차(disparity) 이미지를 학습하고, 주의(attention)·회전(rotation)·이동(translation) 네트워크를 통해 인접한 두 프레임 간의 상대 카메라 자세를 예측한다. 이어서 오차 완화 단계에서는 국소 드리프트를 줄이고 동적 주행 장면에서의 일관성을 증가시키기 위한 손실함수(loss functions)를 제안한다. 또한 순차 데이터에 대응하는 데 있어 효과가 있음을 건너뛰기 순서(skip-ordering) 기법을 통해 보여준다. KITTI 벤치마크 데이터셋으로 수행한 실험에서, 제안된 네트워크는 더 높고 더 안정적인 성능으로 다른 접근법들보다 우수함을 보였다.
*본 초록은 AI를 통해 원문을 번역한 내용입니다. 정확한 내용은 하기 원문에서 확인해주세요.