Model Evaluation - 모델 평가
머신러닝 모델의 성능을 측정하고 평가하는 방법론입니다.
📚 주요 개념
교차 검증 (Cross-Validation)
- 모델의 일반화 성능을 평가하는 방법
- 과적합을 방지하고 모델의 안정성을 확인
성능 지표 (Performance Metrics)
- 모델의 예측 정확도를 수치로 표현
- 문제 유형에 따라 적절한 지표 선택 필요
모델 선택 (Model Selection)
- 여러 모델 중 최적의 모델을 선택
- 하이퍼파라미터 튜닝을 통한 성능 최적화
🔍 학습 내용
분류 문제 평가 지표
- 정확도 (Accuracy)
- 정밀도 (Precision)
- 재현율 (Recall)
- F1-Score
- ROC 곡선 및 AUC
회귀 문제 평가 지표
- 평균 제곱 오차 (MSE)
- 평균 절대 오차 (MAE)
- R² 결정계수
- 조정된 R²
검증 방법
- 홀드아웃 검증 (Hold-out Validation)
- K-폴드 교차 검증 (K-fold CV)
- 층화 K-폴드 (Stratified K-fold)
- 시계열 교차 검증 (Time Series CV)