숟가락 그만 얹어

Classification-based Anomaly Detection 본문

Research/Anomaly Detection

Classification-based Anomaly Detection

업무외시간 2020. 9. 10. 15:23

One-class classification, self-supervised learning, metric learning의 총집합.

 

1) One-class classification: 정상 데이터만으로 모델을 학습시켜 feature 공간에 투영시키는 사상.

 

2) Self-supervsied learning: input data에 transformation m을 가하고 어떤 m을 적용했는지 맞추는 self-supervised 모델을 학습한다. General data에 적용하기 위해 domain knowledge 기반의 transformation이 아닌, 학습되지 않는 random W와 b를 두고 Wx + b를 적용한다. Adversarial attack에 더 robust한 결과를 보여준다. (그냥 Gaussian noise를 더하는 것보다 좋은가?)

 

3) Metric learning: feature 공간에서 class m에 대한 centroids c를 기준으로 intra-class 간의 거리를 줄이고 inter-class 간의 거리는 벌리는 triplet loss를 계산한다.

Class transformation m에 대한 softmax

결과는 Deep-SVDD나 GEOM보다 좋고 구현도 어렵지 않을 것 같다. 다만 parameter 설정에 민감할 것 같고, reconstruction-based methods과 비교했을 때 얻는 장점이 무엇인지 고민이 된다.

 

References

[1] L. Bergman et al., Classification-based Anomaly Detection for General Data, ICLR 2020

'Research > Anomaly Detection' 카테고리의 다른 글

A Unifying Review of Anomaly Detection  (0) 2020.10.30
Deep SAD  (0) 2020.09.14
MSCRED  (0) 2020.08.29
Time-series Anomaly Detection by PCA (3)  (0) 2020.07.15
Time-series Anomaly Detection by PCA (2)  (0) 2020.07.15