# Model Serving

STS model serving(ft. Streamlit sharing)
부캠 첫 대회인 STS 대회가 끝나고 1주일 정도 product serving 강의를 들었다. 변성윤(통칭 카일) 마스터님의 강의는 항상 느끼는데 정말 알차고 좋은 것 같다. 사실 부캠에 참여하게된 주된 이유가 내가 만든 모델을 배포하고 관리하는 ML engineeri

딥다이브 WIL #8 flask 사용해 기초적인 웹사이트 만들기
프로젝트의 마지막 wrap-up으로 우리 AI 모델을 웹에 서빙하는 역할을 맡게 되었다.아직 완성된 상태가 아니기 때문에 AI 모델 서빙 파트를 제외한 나머지를 기록해 두려고 한다.그리고 일단은 AI 모델이 아닌, 기초적인 input을 받고 화면에 출력해주는 기초적인

[Django] ML/DL 모델 배포하기 -01 모델 학습 후 저장
model을 배포할 때 장고(django)를 활용하면 편하다. MLops적인 측면을 고려하지 않는다면,장고 프로젝트에 학습된 모델을 이식하여 배포하는 것이 가장 빠르고 단순한 방법일 것이다. 수행할 태스크를 고민하기 전에, 먼저 ML Service Latency 를 설
Product Serving - 프로토 타입부터 점진적 개선
프로토타입 작성을 위한본 목적: 대시보드jupyter notebook 결과를 쉽게 웹형태로Ipywidget, Ipyleaflet등 사용가능고유한 템플릿 생성 가능너무 쉬운 러닝 커브웹서비스 형태대안R의 ShinyFlask, FastAPI:백엔드를 직접구성 + 프론트엔드
Model Serving
Production(Real world)환경에 모델을 사용할 수 있도록 배포머신러닝 모델을 개발하고, 앱/웹 들에서 사용할 수 있게 만드는 행위서비스화라고 표현 가능머신러닝 모델을 회사 서비스의 기능 중 하나로 활용방식: Online/ Batch/ Edge(모바일기기,

Model Service를 위한 Celery 구성 및 모니터링(Flower + Prometheus + Grafana)
추론 시간이 오래 걸리는 모델 서비스를 위한 Celery 구성을 기록한 글입니다.