# Cost Functions

1개의 포스트
post-thumbnail

[딥러닝] Activation Functions 와 Cost Function

💡 Cost Function Cost/Loss function: data set과 가설함수(h(x))의 오차를 계산하는 함수, 궁극적인 목표는 Global Minimum을 찾는 것 $$J^i(\theta)=\frac{1}{2} (h(x^i)-y^i)^2$$ Mean-square Cost Function: 전체 Cost의 평균을 구하는 식(이 기준으로 param을 최적화 시켜야함)! $$J(\theta)=\frac{1}{m} \sum_{i=1}^{m} J^i(\theta)$$ 최적화를 시키는 방법 Gradient 사용 💡 Gradient Descent gradient: 편미분한 값을 vector로 표현 Gradient Descent Al

2023년 4월 23일
·
0개의 댓글
·