# metric
[간단정리]Revisiting Model Stitching to Compare Neural Representations(NIPS 2021)
Some notes on model stitching

서비스 모니터링
발표자료첫번째 발표C171 람다를 모니터링 하려는 경우, 메트릭을 활용해 어떤 질문이 나올 수 있을까요? 레퍼런스(Lambda 키 메트릭)를 읽고, 어떤 질문을 해결할 수 있는지 알아봅시다. (힌트: 레퍼런스 문서에서 how many, how much, how long

Similarity Learning & Contrastive Learning
Similarity Leanring & Contrastive Learning(1)

F1 score란?
좋은 Article을 읽게 되어 헷갈리던 ML metrics에 대해 정리해보고자 한다.F1 score는 분류 모델에서 사용되는 머신러닝 metric(평가지표)이다.

[대회 복습] Object Detection - Metric
💡 대회 metric vs 내가 사용한 metric AiStages Object Detection 대회 metric 문제점 내가 사용한 metric Class AP Precision Recall Macro-Average F1-score

모니터링 시스템 구축 기록
Overview 회사에서 빅데이터 시스템 개발을 진행하는 프로젝트에 참여하게 되었습니다. 규모가 있는 프로젝트에 참여하다 보니 빅데이터 시스템의 파이프라인에 해당하는(데이터 수집,DB 엔진,스토리지 등) 각각의 솔루션에 대한 통합 모니터링 시스템이 필요했습니다. 이를
Spring boot actuator
Spring boot Actuator란? spring boot application의 상태 모니터링을 도와주는 도구 endpoint를 통한 상태 정보 수집 및 각종 metrics 수집 지원 JMX기반의 한 각종 metrics 수집 지원 각종 모니터링 시스템(CloudW
[Article] Mean Average Precision (mAP) for Recommendation System
http://sdsawtelle.github.io/blog/output/mean-average-precision-MAP-for-recommender-systems.html?source=post_page-----df56c6611093---------------------
예측모델 평가 지표 간단 정리
머신러닝 모델은 크게 분류와 예측의 두 가지 일을 수행하는 것으로 구분할 수 있는데, 분류에 대한 평가지표의 기초는 앞에서 먼저 다루었습니다. 이번에는 기본적인 예측모델의 평가지표(사실 ML을 조금이라도 아는분은 다 아실만한 내용입니다.)를 간단하게 정리
분류기 평가 지표 간단 정리
언제나 헷갈리는 정밀도, 정확도, 재현율 머신러닝에 입문한지 얼마 안되는 초짜라 분류기의 평가 지표는 언제나 헷갈립니다. 익숙해졌다고 또는 다 외웠다고 자만(근자감)했을때 누군가 물어보면 어버버하면서 제대로된 설명이나 답을 못하는 경우가 많았습니다. 이 글을 쓰는