Classification을 위한 평가 지표
- Confusion Matrix
- TP(True Positive): 실제 positive인 것을 positive라고 예측 (정답)
- FP(False Positive): 실제 negative인 것을 positive라고 예측 (오답)
- FN(False Negative): 실제 positive인 것을 negative라고 예측 (오답)
- TN(True Negative): 실제 negative인 것을 negative라고 예측 (정답) - Accuracy (정확도)
- 전체 데이터에 대한 올바르게 예측된 데이터의 비율 - Precision (정밀도)
- 모델이 positive로 예측한 데이터 중에서 실제 positive인 데이터의 비율 - Recall (재현율) = Sensitivity (민감도)
- 실제 negative인 데이터 중에서 모델이 negative라고 예측한 데이터의 비율 - F1 score
- Precision과 recall의 조화평균
- 데이터가 imbalance할 경우 더 정확한 metric - AUC-ROC
- TPR (True Positive Rate): 실제 True 중에서 Positive로 예측한 비율
- FPR (False Positive Rate): 실제 False 중에서 Positive로 예측한 비율
- ROC curve (Receiver Operating Characteristic)
- 다양한 threshold에서의 성능을 한 눈에 볼 수 있도록 시각화 한 측정 그래프
- FPR과 TPR을 각각 x,y축으로 가지는 그래프
- Threshold를 연속적으로 바꾸면서 측정했을 때 TPR과 FPR의 변화를 나타낸 것으로, (0,0)과 (1,1)를 잇는 곡선
- 좌상단에 치우칠수록 높은 성능
- AUC (Area Under the ROC Curve)
- ROC curve에서 곡선 아래의 면적
- 성능 평가에 있어서 수치적인 기준이 될 수 있는 값
- 1에 가까울수록 그래프가 좌상단에 근접하므로 좋은 성능
Object Detection을 위한 평가 지표
- IoU (Intersection over Union)
- Bounding box의 겹치는 영역의 크기를 통해 정확도를 평가하는 방법 - TP & FP : Object detection에서는 IoU 값을 기준으로 TP와 FP 분류
- 특정 threshold를 기준으로, IoU ≥ threshold일 경우 예측이 맞았다고(True Positive) 구분
- 특정 threshold를 기준으로, IoU < threshold일 경우 예측이 틀렸다고(False Positive) 구분 - Precision & Recall
- Precision (정밀도) : IoU를 기준으로 구분한 TP를 통해 precision 계산
- Recall (재현율) : IoU를 기준으로 구분한 TP를 통해 recall 계산
- Confidence score의 threshold에 따라서도 precision과 recall 달라짐
- Threshold 높을수록 → bbox 수 적어짐 → Recall ↓, Precision ↑
- Threshold 낮을수록 → bbox 수 많아짐 → Recall ↑, Precision ↓ - PR Curve
- Confidence score threshold의 변화에 따른 precision과 recall 값을 그린 그래프
- Recall, precision 각각을 x, y축으로 가지는 그래프
- PR Curve 그리기
1. 모든 prediction bounding boxes의 TP/FP 구분
- 이미지 내에 총 15개의 object가 있다고 가정, 모델은 총 10개의 박스를 예측
2. Confidence score 기준으로 내림차순 정렬
3. Confidence score의 threshold를 연속적으로 줄여나갈 경우, 변화하는 recall과 precision 계산
4. 전체 predicted bboxes에 대해 연산한 (recall, precision) 점들을 갖는 그래프 그리기 - AP & mAP
- AP (Average Precision)
- PR 그래프를 통해 모델의 성능을 정량적으로 평가하고자 하는 방법
- 그래프 곡선 아래쪽의 면적
- mAP (Mean Average Precision)
- 모든 class에 대한 AP의 평균
Semantic Segmentation을 위한 평가 지표
- PA (Pixel Accuracy)
- 모든 pixel에 대해 class를 올바르게 예측한 pixel의 비율 - MPA (Mean Pixel Accuracy)
- 모든 class에 대한 PA의 평균 - IoU
- Object detection의 IoU와 계산 방법은 동일하지만, pixel 단위의 mask로 계산 - Dice Coefficient
- IoU와 유사하지만, 두 영역(합집합, 교집합)의 조화평균을 사용하여 계산하는 방법
- 데이터가 imbalance할 경우 더 정확한 metric
'Study > 머신러닝' 카테고리의 다른 글
Backbone (1) | 2025.01.06 |
---|---|
Object Detection (3) | 2025.01.06 |
Semantic Segmentation (0) | 2025.01.03 |
Object Detection (1) | 2025.01.03 |
Image Classification (0) | 2025.01.03 |