[논문리뷰] Domain Generalization via Entropy Regularization

업데이트:     Updated:

카테고리:

태그:

Summary

  • 기존의 Domain Adversarial Network들은 Invariant한 Marginal distribution이 변함없다고 가정해왔다.

  • 하지만, Domain generalization에서 Conditional distribution이 중요한데, 본 논문에서는 Entropy Regularization을 사용해 목적을 이루어내었다.


0. Information

  • 2022-09-22 기준 78회 인용

  • Computer Vision 분야의 유명 학회


1. Introduction

  • Training data를 통해 학습된 모델은 다른 분포의 데이터에 대해 잘 일반화되지 않는다.

    이미지 사진에 대해 학습된 모델을 가지고 그림사진을 예측하려하면 잘 예측하지 못한다.

  • 이를 해결하기 위해 Domain Adaptation이 만들어졌고 이는 Source domain과 Target domain사이에 분포를 줄여주었다.

    Source domain: 주어진 훈련데이터, Target domain: 레이블이 없는 데이터

  • 하지만 위의 Domain adaptation 문제는 데이터셋마다 학습을 시켜야하고 time-consuming이 발생한다.

  • Domain Generalization은 여러 다른 Source domain을 학습시켜 일반화된 모델을 만드는 것이다. (Unseen data도 예측가능하다.)

  • 앞서 개발된 Domain Generalization에 대한 연구들을 소개

  • 대부분의 존재하는 방법들은 Marginal distribution는 변하지만 Condtional distribution이 안정적이라고 가정한다. 하지만 실제 데이터들은 그렇지 못하다.

  • 실제 데이터들은 X가 변함에 따라 Y의 분포가 변하게 되는데, 본 논문에서는 Entropy Regularization이라는 방법을 도입해 P(Y F(X))를 직접적으로 학습시키도록 한다.
  • 저자들은 Cross-Entropy loss보다 모든 소스 도메인에서 loss를 효과적으로 최소화할 수 있다고 말하고 있다.


2. Method

2.1 Problem Definition

  • Domain Generalization문제에서 K개의 Source domain이 존재하고 L개의 Target domain이 존재한다. 목표는 Source domain으로 부터 모델을 학습시켜 Unseen(한번도 보지 못한) Target 데이터에도 일반적으로 잘 예측하도록 하는 것이다.

  • K개의 도메인을 통해 학습을 하고 L개의 도메인을 통해 평가한다.

2.2 Domain Generalization Through Adversarial Learning

Referenece

  • Zhao, Shanshan, et al. “Domain generalization via entropy regularization.” Advances in Neural Information Processing Systems 33 (2020): 16096-16107.

DL Paper 카테고리 내 다른 글 보러가기

댓글남기기