# recall

23개의 포스트
post-thumbnail

[머신러닝] 분류 모델의 성능 평가 지표 (Confusion Matrix, Accuracy, Precision, Recall, F1 score, ROC CURVE, AUC)

머신러닝 모델은 일반적으로 회귀와 분류에 따라 다른 평가 지표를 사용한다. 회귀의 경우 MAE, MSE, RMSE 등을 사용하지만, 분류의 경우는 다르다. 오늘은 분류 모델의 평가 지표에 대해 알아보겠다. Confusion Matrix 분류 모델의 성능을 평가하는 기본적인 방법은 원하는 대상 A를 제대로 예측한 경우와 그렇지 못한 경우가 얼마나 있는지 세...

2023년 5월 14일
·
0개의 댓글
·
post-thumbnail

Confusion_Matrics, precision, recall, precision_recall_curve

분류분석의 평가지표로 실제값과 예측값을 통하여 얼마나 잘 예측했는가를 평가할 수 있는 지표이다.실습을 통하여 확인해 보겠습니다.\[405 0]정확도: 0.9666666666666667정밀도: 1.0재현율: 0.6666666666666666분류알고리즘은 바로 labe

2023년 2월 14일
·
0개의 댓글
·
post-thumbnail

분류 성능 평가 지표 - Precision(정밀도), Recall(재현율) and Accuracy(정확도)

기계학습에서 모델이나 패턴의 분류 성능 평가에 사용되는 지표에 대한 설명입니다.

2023년 2월 2일
·
1개의 댓글
·

[Classification] Evaluation Metric

오차행렬(confusion matrix)은 학습된 모델이 얼마나 혼동하고(confused) 있는지 보여주는 지표로, 이진 분류의 예측 오류가 얼마인지, 어떤 유형으로 발생하고 있는지를 나타낸다. 오차 행렬은 실제 클래스 값과 예측 클래스 값을 기준으로 4분면 행렬에 어

2022년 11월 16일
·
0개의 댓글
·
post-thumbnail

분류 모델 성능 검증 confusion matrix, 정밀도(precision), 재현율(recall)에 대해서 알아보자.

회귀 모델(Regression)의 경우 정확도나 오차를 보면 되지만 분류 모델은 정밀도, 재현율, confusion matrix 등 머리 아픈 용어가 많다. 더 이상 머리 아프게 생각하지 말고 이번 기회에 정리해보자.분류 모델은 confusion matrix를 통해 성

2022년 10월 15일
·
0개의 댓글
·
post-thumbnail

파이썬 머신러닝 완벽 가이드 - 4. Evaluation

실제 데이터에서 예측 데이터가 얼마나 같은지 판단하는 지표$$⁍ $$특히 정확도는 불균형한 레이블 값 분포에서는, 적합한 평가 지표가 아님ex) MNIST 데이터 셋을 다중분류에서 이진분류로 바꾸면 (7을 True, 나머지를 False) ⇒ 0과 1중 0을 찍으면 90

2022년 9월 28일
·
0개의 댓글
·

정밀도와 재현율

정밀도(Precision) : precision_score(실제 결과, 예측 결과)\*\*예측을 Positive로 한 대상(FP + TP) 중 예측과 실제 값이 Positive로 일치한 데이터(TP)의 비율(Positive 예측 성능을 더욱 정밀하게 측정하기 위한 평가

2022년 9월 14일
·
0개의 댓글
·
post-thumbnail

AIB: N223 Evaluation Metrics for Classification

TP, TN, FP, FN으로 이루어진 매트릭스분류모델의 성능 평가지표실제 양성인데 검사 결과도 양성잘 맞춰서, Positive(1)를 잡아냈다.올바르게 1을 1이라고 예측. 찐양성, 찐양성실제 음성인데 검사 결과도 음성잘 맞춰서 Negative(0)를 잡아냈다.실제

2022년 3월 4일
·
0개의 댓글
·
post-thumbnail

[ML/DL] 모델성능평가 F1-score

사이킷런에는 모델의 성능을 평가할 수 있는 여러 다양한 라이브러리들이 존재한다. binary classification도 가능하지만 multi class 인 경우에도 파라미터를 설정하면 평가할 수 있다.올바르게 예측된 데이터의 수를 전체 데이터의 수로 나눈 값모델이 T

2022년 2월 3일
·
0개의 댓글
·
post-thumbnail

Eval Metrics

confusion_matrixconfusion_plotpr curveroc-auc

2021년 12월 26일
·
0개의 댓글
·

Macro F1 Score

Macro F1 Score에 대해 설명합니다.

2021년 12월 25일
·
0개의 댓글
·

[TIL] 210823

테크니컬 글쓰기 특강 듣기 sprint challenge인프런 ROC, AUC 강의 끝까지 다 듣기 트리모델과 선형모델을 비교해봤을때 어떤점이 더 좋았나요?간결하다 원핫인코딩보다 오디널 인코딩 쓸 수 있어서 좋았다표준화 안해도 되서 좋았다 특성선택을 알아서 해줘서 편

2021년 8월 23일
·
0개의 댓글
·
post-thumbnail

Precision&Recall

범죄자라고 판단한 사람들 중 진짜 범죄자인 사람이 몇명인가의 비율실제 범죄자들 중 범죄자들 중 범죄자라고 판단한 사람이 몇명인가의 비율Refhttps://danthetech.netlify.app/DataScience/evaluation-metrics-for-r

2021년 8월 19일
·
0개의 댓글
·
post-thumbnail

분류성능평가지표 - Precision(정밀도), Recall(재현율)

Precision(정밀도), Recall(재현율)을 알아보자!

2021년 4월 15일
·
0개의 댓글
·

Metric

Evaluation Metrics

2021년 4월 14일
·
0개의 댓글
·
post-thumbnail

Evaluation Metrics in Machine Learning - Precision / Recall

Precision and Recall are evaluation metrics which emphasize the performance in positive data-set. Precision = (TP) / (TP + FP) ratio of correctly pr

2021년 1월 13일
·
0개의 댓글
·

피마 인디언 당뇨병 예측 데이터 세트로 머신러닝 평가하기

이번에는 Kaggle의 피마 인디언 당뇨병(Pima Indian Diabetes) 데이터 세트를 이용해 당뇨병 여부를 판단하는 머신러닝 예측 모델을 수립하고, 저번에 작성한 평가 지표를 적용해 보자.

2020년 12월 27일
·
1개의 댓글
·

머신러닝 평가(Evaluation)

머신러닝은 데이터 가공/변환, 모델 학습/예측 그리고 평가의 프로세서로 구성된다.

2020년 12월 26일
·
0개의 댓글
·