숟가락 그만 얹어
Classifier-free Diffusion Guidance 본문
기존의 classifier-based guidance는 noise level에 따른 classifier를 따로 학습시켜야 할 뿐만 아니라 classifier based metric인 IS와 FID를 의도적으로 향상하기 위한 adversarial attack일 수 있다고 저자는 주장한다. 본 논문에서 제안하는 guidance 방식은 conditional diffusion model의 output과 unconditional model의 output의 차이의 방향으로 sample을 생성하도록 유도한다. 이때 unconditional model은 conditional model의 condition을 0 또는 null을 나타내는 방식으로 만든다
이는 여러 가지로 해석이 가능한데, 1) implicit classifier의 역할을 한다고 볼 수도 있고, 2) noise constrastive estimation처럼 unconditional output을 일종의 noise로 간주하고 이를 줄이는 방향을 유도한다고 불 수도 있다. 엄밀한 수학적 정의는 아니나 개념적으로는 그렇다.
결과를 보면 w 값에 따라 IS와 FID 사이의 일종의 trade-off 관계가 발생하는데, 대강 찾아보니 IS는 intra-class diversity를 반영하지 못하기 때문에 w 값이 커질수록 sample diversity from FID가 떨어진다고 생각하면 얼추 맞는 것 같다.
References
[1] J. Ho et al., Classifier-free Diffusion Guidance, NeurIPS Workshop 2021
'Research > Generative Model' 카테고리의 다른 글
Denoising Diffusion Implicit Models (DDIM) (0) | 2022.07.17 |
---|---|
Denoising Diffusion Probabilistic Models (DDPM) (1) | 2022.07.14 |
Gaussian Discriminant Analysis (0) | 2021.05.31 |
SVG-LP (0) | 2021.03.21 |
Relative Position Representations (0) | 2021.03.12 |