# f1 score

Evaluation metric survey
imbalanced되어있으면서도, ranking이 중요한 데이터에 대해서(e.g. click이 잘 일어나지 않지만, ctr의 순위를 잘 결정하는것이 중요한 데이터에 대해서) 평가 지표를 찾는다.accuracy, f1score, ROC AUC, PR AUC 등의 여러 지

F1 score란?
좋은 Article을 읽게 되어 헷갈리던 ML metrics에 대해 정리해보고자 한다.F1 score는 분류 모델에서 사용되는 머신러닝 metric(평가지표)이다.

[ML/DL] 모델성능평가 F1-score
사이킷런에는 모델의 성능을 평가할 수 있는 여러 다양한 라이브러리들이 존재한다. binary classification도 가능하지만 multi class 인 경우에도 파라미터를 설정하면 평가할 수 있다.올바르게 예측된 데이터의 수를 전체 데이터의 수로 나눈 값모델이 T
Named Entity Recognition with BiLSTM + CNN
이번 글에서는 여기서 사용한 데이터셋과 전처리를 이용하여 다른 모델을 만들어 볼 것이다. 이전에서는 BiLSTM을 이용했지만 이번에는 BiLSTM과 CNN을 동시에 이용하여 만들어보자. 이번 내용에서는 단어(Word)와 글자(Character)의 차이를 헷갈리지 않도
[인사이드 머신러닝] 분류모델의 성능 평가를 위한 지표들
분류기의 성능을 평가하기 위한 주요 지표와 방법을 알아보자. Confusion Matrix (오차행렬)

Evaluation Metrics in Machine Learning - F1 Score
F1-score is the weighted average of precision and recall. Hence, since it takes both FP and FN into account, better the balance between precision and
분류기 평가 지표 간단 정리
언제나 헷갈리는 정밀도, 정확도, 재현율 머신러닝에 입문한지 얼마 안되는 초짜라 분류기의 평가 지표는 언제나 헷갈립니다. 익숙해졌다고 또는 다 외웠다고 자만(근자감)했을때 누군가 물어보면 어버버하면서 제대로된 설명이나 답을 못하는 경우가 많았습니다. 이 글을 쓰는

분류 모델의 평가 방법
분류모델의 평가방법에 대해 알아봅시다.정확도만 가지고 분류 모델을 평가하면 안될까?(정확도: 전체의 데이터 중에서 올바르게 예측한 비율)결론은 아니다.다음과 같은 예시가 있다.전체 데이터에서 90%는 고양이, 10%는 강아지다.데이터가 뭐든지 상관없이 전부 모든데이터를