숟가락 그만 얹어
Calibration Softmax 본문
Softmax 확률을 uncertainty로 활용할 수는 있지만 딥러닝은 over-confident한 경우가 많다. Over-fitting이 안 일어나도록 학습을 시켰다고 하더라도 잘 모르는 문제를 너무 자신있게 틀린다는 것이다. (Generalization에 취약하다고 말하는 것이 맞겠다.)
위 그림에서 LeNet에 비해 ResNet은 모델의 평균 accuracy와 평균 confidence 사이의 gap이 크다. 우리 입장에서는 모델이 잘 모르는 문제를 맞추더라도 모른다고 해줘야 해석하기 용이하다. 위 현상에 대한 해결법은 logits을 적당한 constant term으로 나누어주고 softmax 함수를 통과시키면 된다. 이런 technique은 자주 나오는 패턴이다.
References
[1] C. Guo et al., On Calibration of Modern Neural Networks, ICML, 2017
'Research > Uncertainty' 카테고리의 다른 글
Can you trust your model's uncertainty? (0) | 2020.08.22 |
---|---|
Deep Ensembles (0) | 2020.08.21 |
Bayes by Backprop (0) | 2020.08.02 |
Dropout as Bayesian Approximation (0) | 2020.08.01 |
Bayesian Neural Networks (0) | 2020.07.18 |