2025 딥러닝/논문 리뷰

[논문 리뷰] Tent: Fully Test-time Adaptation by Entropy Minimization (ICLR 2021)

딩딩딩2 2025. 8. 23. 21:35

방법론의 목적

  • 문제정의
    • 현실 문제
    • : 딥러닝 모델은 훈련 데이터와 유사한 분포에서는 높은 정확도를 보이지만, 도메인 시프트가 발생하면 성능이 크게 하락. 예) 카메라 노이즈, 날씨 변화, 센서 고장 등.
    • 기존 한계
    • : 일반적인 도메인 적응 방법은 소스 도메인 데이터를 다시 사용하거나, 테스트 환경을 미리 아는 경우에만 유효함.
    • 현실적 제약
    • : 테스트 시점에는 소스 데이터 접근이 불가능하거나 비용이 많이 드는 경우가 많음 (예: 개인정보보호, 제한된 리소스, 지연 시간 이슈 등)
  • 목표
    • Fully Test-Time Adaptation (FTTA): 사전 훈련된 모델의 구조와 가중치는 유지하며, 테스트 배치에서만 적응 수행
    • : 소스 데이터 없이, 테스트 시점의 입력 데이터만으로 모델이 환경 변화에 적응하도록 만드는 방법론 제안

 

주목해야할 점 (Key Insights)

  • 기존 TTA와의 차이점
  • 핵심 통찰
    • 엔트로피 최소화가 도메인 시프트 대응에 효과적이다
      : 예측의 불확실성(Entropy)이 클수록 오류율도 증가 (논문 Figure 1, 2)
    • : 테스트 배치에서 예측의 엔트로피를 줄이면 모델이 보다 확신을 갖고 예측 → 정확도 향상

 

방법론

  • 주요 아이디어
    • 테스트 배치에서 예측 결과의 엔트로피를 최소화하는 방향으로 모델 일부를 업데이트
    • 수식
  • 구현방식
    • 업데이트 대상: 오직 BatchNorm 레이어의 γ, β (scale, shift)만 업데이트 → 전체 파라미터 중 1% 미만 → 효율적이고 안정적
    • : 전체 파라미터(θ)는 고정
    • 알고리즘 흐름
      1. 초기화: γ, β 파라미터 수집. 기존 µ, σ는 제거
      2. 각 배치 입력마다
        1. µ, σ는 forward에서 추정
        2. γ, β는 예측의 엔트로피를 기준으로 gradient descent
      3. 다음 배치에서 업데이트된 γ, β를 사용
    • 장점
      • 빠름: 소수의 파라미터만 업데이트
      • 안전함: 기존 모델 가중치 변경 없음
      • 범용성: 다양한 CNN 구조에 적용 가능

 

실험

  • 실험 목적
    • TENT가 다음 조건에서 성능을 얼마나 개선할 수 있는지 확인
      1. 이미지 분류 문제에서의 도메인 시프트 (Corruption robustness)
      2. 다른 도메인으로의 generalization (Domain adaptation)
    • 목표
      • 기존 source-free TTA 기법 및 소스 데이터 기반 적응 기법과 비교하여 성능을 수치로 검증
      • 완전히 테스트 시점에서만 적응하는 TENT의 효과 입증
  • 데이터셋 구성 및 실험 환경
    • Corruption Robustness
      • Corruption 예시: ※ 각 corruption은 5단계 난이도로 변형되어 테스트됨
      • : gaussian noise, motion blur, brightness, fog, jpeg compression 등
    • Domain Adaptation: MNIST/MNIST-M/USPS: 손글씨, 흑백
    • : SVHN: 실제 도로표지 숫자 (컬러, 배경 복잡) 
  • 모델 구성
    CIFAR-10/100-C ResNet-26 (R-26) with BatchNorm
    ImageNet-C ResNet-50 (R-50) 표준 이미지넷 구조
    Domain Adaptation R-26 동일 구조로 비교 공정성 확보
    • → 모든 모델에 BatchNorm이 포함되어 있어 TENT 적용 가능 (γ, β 업데이트)
  • Baselines
Source 학습된 모델을 그대로 테스트
RG (Reverse Gradients, DA) 도메인 불변 표현 학습
UDA-SS Self-supervised DA (rotation 등)
TTT (Test-Time Training) source에서 self-supervised task 병행 학습
BN (Test-Time Norm) BN 통계만 업데이트
PL (Pseudo-Labeling) 예측 confident 결과를 label로 사용해 적응
TENT (ours) 엔트로피 최소화 기반 γ, β 업데이트

 

      • Results
        • CIFAR-10-C / CIFAR-100-C
          • 분석
            • TENT는 모든 기법 중 최저 오류율을 기록
            • 특히 PL보다도 더 나은 성능을 보이면서 학습 방식은 훨씬 단순 (pseudo-label 생성 필요 없음)
            • TTT보다 좋은 성능을 보이면서도 사전 학습 변경 없음.
        • ImageNet-C
          • 분석
            • 대규모 고해상도 이미지에서도 TENT는 가장 낮은 오류율 달성
            • 학습 변경 없이 테스트 시점만으로 SOTA 초과 성능
            • 기존에는 대규모 adversarial noise 학습 필요했던 성능을 online adaptation만으로 달성
        • SVHN → MNIST 계열 (Domain Adaptation)
           
          • 정량 수치는 논문에 간략히 언급되었지만, 주요 결과:
            • TENT는 self-supervised loss 없이도 test-time adaptation 가능
            • PL 대비 적응 속도 빠르고, confidence threshold 튜닝 필요 없음
            • DA 기법과 유사한 성능을 비지도 방식으로 달성

 

결론

  • 주요 contribution
    • Fully Test-Time Adaptation (FTTA) 문제 정의 및 공식화
    • Entropy Minimization을 통한 실용적이고 효과적인 적응 기법 제안
    • 소스 데이터, 라벨, 추가 모델 없이 SOTA 성능 달성
  • 핵심 장점
    • 데이터 효율성: 테스트 데이터만 필요
    • 연산 효율성: γ, β만 업데이트
    • 강력한 일반화 성능: 다양한 시나리오에서 향상된 정확도