# loss function

29개의 포스트
post-thumbnail

YOLOv8 모델 loss function 수정

이번 포스트에서는 YOLOv8 모델의 loss function을 수정하는 방법에 대해 설명할 것이다.

2023년 8월 31일
·
0개의 댓글
·
post-thumbnail

Repairing Deep Neural Networks: Fix Patterns and Challenges

요약Loss function add, remove or replace the loss function에 집중하여

2023년 8월 22일
·
0개의 댓글
·
post-thumbnail

손실 함수(Loss Function)

역할: 모델의 출력이 정답(실제 값)과 얼마나 가까운지 측정손실(모델의 출력 값과 실제 값 간의 차이)를 수치화 하는 함수오차가 작을수록 손실 함수 값이 작다손실 함수 값이 작은 방향으로 모델을 학습시키는 것이 목표회귀(Regression)/분류(Classificati

2023년 7월 6일
·
0개의 댓글
·
post-thumbnail

퍼셉트론(Perceptron)

인공신경망(ANN, Artificial Neural Network)은 인간의 뇌를 모델화한 것을 의미한다. 퍼셉트론은 인공 신경망의 구성요소로, 입력(x)을 일련의 과정(활성화 함수, $\\sigma$)를 거쳐 결과(y)를 출력하는 역할을 한다. 목표: Input(X

2023년 7월 6일
·
0개의 댓글
·
post-thumbnail

손실 함수(Loss Function)

<span style="background-color : 손실 함수가 <span style="background-color : 오차 함수(Error Function), 비용 함수(Cost Function), 목표 함수(Objective Function) 이라

2023년 7월 2일
·
0개의 댓글
·
post-thumbnail

Fine Grained Visual Classification - (1)

본 논문은 Fine-Grained Visual Claissification에서 높은 inter-clsdd similarity를 갖는 다양한 category를 구분짓는 결정적인 detailed feature을 학습 하기 위한 새로운 loss function을 제시한다.각

2023년 5월 28일
·
0개의 댓글
·
post-thumbnail

[딥러닝]Loss Function (+ Cost Function)

예측값과 실제값의 차이 = loss모델 성능의 '나쁨'을 나타내는 지표실제 y값에 비해 가정한 모델 $h\_\\theta$의 예측값이 얼마나 잘 예측했는지 판단하는 함수이다.빨간 선의 총합이 최소화되었을 때 최적의 결과값 도출 가능하다.$$MSE=\\frac{1}{m}

2023년 4월 30일
·
0개의 댓글
·

[DL] 손실함수(Loss Function)

예측값과 실제값의 차이를 비교하기 위한 함수. 최적화를 하기 위해서 최소화를 하는 것이 목적인 함수. 목적함수(Object Function), 비용함수(Cost Function) 이라고도 부름손실함수를 통해서 모델 학습 중에 loss가 잘 줄어들지 않는다면 학습이 잘

2023년 1월 29일
·
0개의 댓글
·
post-thumbnail

밑바닥부터 시작하는 딥러닝1 - 신경망 학습(1)

학습이란 훈련 데이터로부터 가중치 매개변수의 최적값을 자동으로 얻는 것을 의미합니다.최적값을 얻기 위하여 손실함수를 지표로 사용합니다.손실함수(Loss function)는 실제값(Target)과 모델의 예측값(Predict)의 차이를 수치화해주는 함수로 "오차"를 나타

2022년 10월 21일
·
0개의 댓글
·
post-thumbnail

이미 슬픈 Cross Entropy..

이미 슬픈 Cross Entropy 복습하기.

2022년 6월 27일
·
0개의 댓글
·
post-thumbnail

[DeepLeaning from Scratch] 신경망 학습

신경망 학습에서 학습이란 훈련 데이터로부터 가중치 매개변수의 최적값을 자동으로 획득하는 것손실 함수는 신경망이 학습할 수 있도록 해주는 지표이 손실 함수의 결과값을 가장 작게 만드는 가중치 매개변수를 찾는 것이 학습의 목표데이터에서 학습한다는 것은 가중치 매개변수의 값

2022년 5월 29일
·
0개의 댓글
·
post-thumbnail

목적함수(Objective Function)

KeywordsObjective FunctionMSEIndependent Variable, Dependent Variable Regression 신경망의 학습능력을 평가하는 지표이다. 출력층의 예측값 (가중치+편향)과 실제값의 차이를 수학적으로 접근하는 기법이다. Th

2022년 4월 15일
·
0개의 댓글
·

Loss functions

L1 loss L2 loss Mean Squre Error $Y = \sum (xi - yi)^{2}$ Rooted Mean Squre Error $Y = \sum \sqrt {(xi - yi)^{2}}$

2022년 3월 23일
·
0개의 댓글
·
post-thumbnail

Logistic Regression (Notation, Cost Function, Gradient Descent)

Binary Classification classification의 결과가 0 또는 1인 것을 의미한다. 예를 들면 사진 하나를 보여주고 이 사진이 고양이이면 1, 고양이가 아니면 0을 뱉는 classification model은 binary classificatio

2022년 3월 12일
·
0개의 댓글
·

Ai_D67

손실 함수의 목적은 손실의 정도를 파악하고 줄이기 위해 사용할 수 있는 기준을 정하는데 있습니다.이 기준을 가지고 편미분과 체인 함수를 통해 가중치를 재조정하며 성능을 개선합니다.따라서 손실 함수는 학습 결과를 판정할 수 있는 도구이기 때문에 매우 중요합니다.Binar

2022년 2월 23일
·
0개의 댓글
·

Huber Loss란?

L1, L2 Loss L1 Loss L1 Loss의 경우, 'V' 형태로 미분 불가능한 지점이 있지만 상대적으로 L2 Loss에 비해 이상치에 대한 영향은 적다. L2 Loss L2 Loss의 경우, 'U' 형태로 모든 지점에서 미분 가능하지만, 이상치의 에러가 제곱

2022년 2월 7일
·
0개의 댓글
·