숟가락 그만 얹어
Classification-based Anomaly Detection 본문
One-class classification, self-supervised learning, metric learning의 총집합.
1) One-class classification: 정상 데이터만으로 모델을 학습시켜 feature 공간에 투영시키는 사상.
2) Self-supervsied learning: input data에 transformation m을 가하고 어떤 m을 적용했는지 맞추는 self-supervised 모델을 학습한다. General data에 적용하기 위해 domain knowledge 기반의 transformation이 아닌, 학습되지 않는 random W와 b를 두고 Wx + b를 적용한다. Adversarial attack에 더 robust한 결과를 보여준다. (그냥 Gaussian noise를 더하는 것보다 좋은가?)
3) Metric learning: feature 공간에서 class m에 대한 centroids c를 기준으로 intra-class 간의 거리를 줄이고 inter-class 간의 거리는 벌리는 triplet loss를 계산한다.
결과는 Deep-SVDD나 GEOM보다 좋고 구현도 어렵지 않을 것 같다. 다만 parameter 설정에 민감할 것 같고, reconstruction-based methods과 비교했을 때 얻는 장점이 무엇인지 고민이 된다.
References
[1] L. Bergman et al., Classification-based Anomaly Detection for General Data, ICLR 2020
'Research > Anomaly Detection' 카테고리의 다른 글
A Unifying Review of Anomaly Detection (0) | 2020.10.30 |
---|---|
Deep SAD (0) | 2020.09.14 |
MSCRED (0) | 2020.08.29 |
Time-series Anomaly Detection by PCA (3) (0) | 2020.07.15 |
Time-series Anomaly Detection by PCA (2) (0) | 2020.07.15 |