# MLOps Lifecycle 3 ## 모델의 검증 - 예측 성능 - 모델의 예측값이 실제값에 얼마나 가까운지 - 얼마나 잘 일반화(Generalized)되는지 - DS가 관심을 두는 부분 - 처리 성능 - 모델이 예측값을 계산해내는데 소요되는 시간, 사용하는 컴퓨팅 자원 - 안정적으로 얻을 수 있는 추론 성능 - SWE가 관심을 두는 부분 - 서비스가 얼마나 안정적으로 되고 있는지 파악할 수 있는 요소(처리 시간, 처리량, 실패 유형 등) - 애저에서는 어플리케이션 인사이트 기능을 이용함. 코드에서 발생하는 모든 로그 정보가 한 곳에서 통합 관리됨 ## MLOps Lifecycle 3 : 모델 해석 ### 모델 해석의 필요성  - 대부분은 Black Box Model이다. - 정확도 만으로 모델의 성능을 평가할 수 없다. - 모델이 예측을 잘하는지 객관적 평가, 성능지표가 필요하다 ### 모델 해석 분류 기준 - `Intrinsic vs Post-hoc` : 모델 자체로 해석 여부 가능한지, 아니라면 해석을 위한 새로운 모델링 - `Model-specific vs Model-agnostic` : 특정 모델에만 적용되는지 - `Global vs Local` : 데이터에 따른 모델의 범위 ### 모델 해석 방법  ## MLOps Lifecycle 4 : 모델 배포 및 서빙 `Model Serving`이란 다른 `애플리케이션에서 ML 모델을 사용할 수 있도록 모델을 배포`하거나, `모델 API를 제공`하는 것을 의미  ### 모델 모니터링 서빙 단계에서는 모니터링의 기능을 제공하여 모델에 대한 성능을 주기적으로 확인해야 함 #### 모델 성능 하락 원인 - Data Drift: 데이터의 통계적 변형 - Schema Drift: 데이터 스키마 변형 - Data Skew: 데이터의 불균형 - Concept Drift: 비즈니스 목적의 변형