Paper : Estimating Egocentric 3D Human Pose in the Wild with External Weak Supervision
- 동기화된 자기 중심 및 외부 이미지 시퀀스를 포함하는 EgoPW Dataset 수집
- 멀티뷰 기반 최적화 프레임워크를 사용하여 EgoPW 데이터 세트에 대한 pseudo label 생성
- 자기 중심 이미지 와 외부 이미지 의 프레임이 있는 time window에서 시퀀스를 입력으로 받아들이고, 자기 중심 3D 포즈 를 pseudo label로 출력
- MoCap의 합성 데이터와 유사 레이블 이 있는 EgoPW 로 egocentric pose estimation network 훈련
- 기성 외부 포즈 추정 네트워크의 feature 표현을 활용하여 자기 중심적 네트워크를 adversarial 방식으로 더 나은 feature 표현 학습
- 합성 데이터 세트와 실제 데이터 세트 사이의 도메인 격차를 완화하기 위해 adversarial domain adaptation 전략 사용
external reprojection term만으로는 정확한 3D 포즈를 얻을 수 없음
자기중심적 카메라 포즈와 최적화된 신체 포즈의 external reprojection constraint을 violation하지 않고 임의로 변경될 수 있는 모호성을 완화하기 위한 카메라 일관성 term :
번째 프레임에서 자기 중심 카메라 포즈를 번째 프레임과의 상대 포즈로 변환하여 얻은 포즈와 일치하도록 함
Procrustes analysis
Shape 집합의 분포를 분석하는 방법
3.2절의 최적화 프레임워크를 통해 EgoPW 데이터 세트의 각 자기 중심 프레임에 대한 정확한 3D 포즈 유사 레이블 Pegoseq를 얻을 수 있으며, 이는 보충 자료에 설명된 fisheye 카메라 모델로 2D 열 지도 HE와 관절과 자기 중심 카메라 DE 사이의 거리로 추가로 처리
MoCap의 합성 데이터 세트와 EgoPW 데이터 세트 모두에서 단일 이미지 기반 자기 중심적 포즈 추정 네트워크를 훈련
합성 이미지 를 포함한 합성 데이터 세트 와 MoCap 데이터 세트의 heatmap 및 거리 레이블 , pseudo heatmap , 거리 레이블 및 외부 이미지 를 포함하는 EgoPW 데이터 세트 E에 주목한다
두 개의 reconstruction loss term과 두 개의 adversarial loss term으로 자기 중심적 자세 추정 네트워크를 훈련
시야 방향과 카메라 왜곡에 대한 상당한 차이로 인해 자기중심적 관점과 외부 관점의 중간 특징이 서로 달라야 하기 때문에
→ 적대적 훈련 전략을 사용하여 자기 중심 및 외부 네트워크의 feature 표현을 정렬
자기 중심 이미지와 해당하는 야생 이미지에서 추출된 feature 벡터를 취하고 feature가 자기 중심 이미지인지 외부 이미지인지 예측하는 adversarial discriminator 를 사용
adversarial discriminator 는 교차 엔트로피 손실로 훈련 :