숟가락 그만 얹어

Calibration Softmax 본문

Research/Uncertainty

Calibration Softmax

업무외시간 2020. 7. 15. 22:28

Softmax 확률을 uncertainty로 활용할 수는 있지만 딥러닝은 over-confident한 경우가 많다. Over-fitting이 안 일어나도록 학습을 시켰다고 하더라도 잘 모르는 문제를 너무 자신있게 틀린다는 것이다. (Generalization에 취약하다고 말하는 것이 맞겠다.) 

Confidence on LeNet vs ResNet

위 그림에서 LeNet에 비해 ResNet은 모델의 평균 accuracy와 평균 confidence 사이의 gap이 크다. 우리 입장에서는 모델이 잘 모르는 문제를 맞추더라도 모른다고 해줘야 해석하기 용이하다. 위 현상에 대한 해결법은 logits을 적당한 constant term으로 나누어주고 softmax 함수를 통과시키면 된다. 이런 technique은 자주 나오는 패턴이다.

Temperature

References

[1] C. Guo et al., On Calibration of Modern Neural Networks, ICML, 2017

'Research > Uncertainty' 카테고리의 다른 글

Can you trust your model's uncertainty?  (0) 2020.08.22
Deep Ensembles  (0) 2020.08.21
Bayes by Backprop  (0) 2020.08.02
Dropout as Bayesian Approximation  (0) 2020.08.01
Bayesian Neural Networks  (0) 2020.07.18