Video 3

[논문 리뷰] Source-free Video Domain Adaptation by Learning Temporal Consistency for Action Recognition(CVPR, 2022)

ATCoN소스 모델과 동일한 구조를 가진 공간 및 시간 특성 추출기를 사용하고, 이는 소스 특성 추출기로 초기화됩니다. 이 모델은 로컬 시간 특성들로부터 전반적인 시간적 특성을 학습함으로써 특성 일관성과 소스 예측 일관성을 동시에 유지합니다. 로컬 가중치 모듈(LWM)은 더 정확하다고 판단되는 로컬 시간적 특성에 집중합니다. 최종적으로, 고정된 소스 분류기를 사용하여 이러한 전반적인 시간적 특성에 기반한 예측을 도출  ⇒ 모델은 소스 모델과 동일한 구조의 공간 및 시간 특성 추출기를 사용하며, 이는 소스 특성 추출기로 초기화됩니다. 로컬 시간적 특성에서 전반적인 시간적 특성을 학습함으로써 특성 및 소스 예측 일관성을 유지합니다. 로컬 가중치 모듈(LWM)은 정확도가 높은 로컬 특성에 집중하고, 최종 예측..

[논문 리뷰] Overcoming Label Noise for Source-free Unsupervised Video Domain Adaptation(ICVGIP, 2023)

CleanAdapt(a) 첫 번째 단계에서는 레이블이 붙은 소스 도메인 비디오(D𝑠)를 이용해 모델(𝑓𝑎)을 사전훈련합니다. 이때 단일 스트림 모델만 보여집니다. (b) 사전훈련된 소스 모델을 사용하여 레이블이 없는 대상 도메인 비디오(D𝑡)에 대해 가상 레이블(𝑦ˆ)을 생성합니다. 이 가상 레이블들은 소스와 대상 도메인 간의 도메인 이동으로 인해 불완전합니다. (c) 클린 샘플 선택 모듈을 사용하여 작은 손실을 가진 샘플들을 잠재적으로 클린 샘플로 선택합니다(D𝑐𝑙). 이 클린 샘플들을 이용해 해당 가상 레이블(𝑦ˆ)을 사용하여 사전훈련된 모델을 미세 조정합니다. 이 단계는 여러 번 반복됩니다. ⇒ CleanAdapt 프레임워크는 레이블이 부착된 소스 도메인 비디오를 사용하여 모델을 사전..

[논문 리뷰] Source-Free Video Domain Adaptation with Spatial-Temporal-Historical Consistency Learning(CVPR, 2023)

STHC제안된 STHC 방법론은 두 단계로 구성됩니다. 첫 번째는 레이블이 붙은 소스 비디오를 사용한 소스 모델의 사전훈련 단계이고, 두 번째는 레이블이 없는 대상 비디오를 이용해 모델을 적응시키는 적응 단계입니다. 적응 단계에서는 비디오에 공간적, 시간적 증강을 적용하고, 세 가지 일관성 기술을 통해 일관된 예측을 도모합니다. 또한, 엔트로피 최소화 손실을 통해 모델이 다양하면서도 정확한 예측을 하도록 유도합니다.