Model Evaluation - 모델 평가

머신러닝 모델의 성능을 측정하고 평가하는 방법론입니다.

📚 주요 개념

교차 검증 (Cross-Validation)

  • 모델의 일반화 성능을 평가하는 방법
  • 과적합을 방지하고 모델의 안정성을 확인

성능 지표 (Performance Metrics)

  • 모델의 예측 정확도를 수치로 표현
  • 문제 유형에 따라 적절한 지표 선택 필요

모델 선택 (Model Selection)

  • 여러 모델 중 최적의 모델을 선택
  • 하이퍼파라미터 튜닝을 통한 성능 최적화

🔍 학습 내용

분류 문제 평가 지표

  • 정확도 (Accuracy)
  • 정밀도 (Precision)
  • 재현율 (Recall)
  • F1-Score
  • ROC 곡선 및 AUC

회귀 문제 평가 지표

  • 평균 제곱 오차 (MSE)
  • 평균 절대 오차 (MAE)
  • R² 결정계수
  • 조정된 R²

검증 방법

  • 홀드아웃 검증 (Hold-out Validation)
  • K-폴드 교차 검증 (K-fold CV)
  • 층화 K-폴드 (Stratified K-fold)
  • 시계열 교차 검증 (Time Series CV)