숟가락 그만 얹어

Epistemic vs. Aleatoric 본문

Research/Uncertainty

Epistemic vs. Aleatoric

업무외시간 2021. 5. 27. 13:05

Uncertainty 관련 논문들에서 언급되는 epstemic과 aleatoric uncertainty를 다시 정리해보고자 한다. 첫 번째로 uncertainty에 대한 모델링은 아래 predictive distributuon에 대한 entropy로 정의 가능하다.

Predictive distribution

위 식에서 randomness는 p(z)로부터 발생하는 noise와 W ~ q(W)에 기인한다. p(z)는 observation에 내재된 noise로 irreducible하며 (aleatoric), q(W)는 더 많은 데이터의 수집으로 approximation을 잘하면 randomness를 줄일 수 있다.

 

두 번째로 epistemic과 aleatoric은 mutual information 식으로도 표현이 가능한데,

Total uncertainty - Aleatoric = Epistemic

좌변의 첫 번째 term은 predictive distribution의 entropy로서 uncertainty의 총량을 나타낸다. 두 번째 term의 경우 W에 따른 영향을 없앤 entropy로 p(z)의 영향만을 고려한, aleatoric에 해당한다. 우변에 해당하는 term은 y가 W에 의해 결정되어 버리면 (x에 의해 결정되어야 한다) 모델의 confidence가 낮은 것으로 해석할 수 있다.

 

왜 그럴까?

Aleatoric uncertainty는 error와 관련이 있다. 어떤 model의 output으로 Softmax 또는 Gaussian likelihood로 설정된 경우 ground truth와의 error가 클수록 uncertainty (probability 또는 variance)가 커진다. 이는 어쨌든 in-distribution에서의 error이므로 out-of-distribution sample의 경우는 어떤 behavior를 보일지 알 수 없다. 이 외의 model을 구성하는 다른 것들은 전체 training set distribution에 대한 distribution(?)을 조절하는 요소라고 생각할 수 있겠다 (not clear).

 

References

[1] L. Smith et al., Understanding Measures of Uncertainty for Adversarial Example Detection, UAI 2018

[2] A. Kendall et al., What Uncertainties Do We Need in Bayesian Deep Learning for Computer Vision?, NIPS 2017

'Research > Uncertainty' 카테고리의 다른 글

Deep Deterministic Uncertainty  (0) 2021.05.31
Prior Networks  (0) 2020.12.01
What Uncertainties Do We Need?  (0) 2020.09.08
Can you trust your model's uncertainty?  (0) 2020.08.22
Deep Ensembles  (0) 2020.08.21