# RMSProp

3개의 포스트
post-thumbnail

4가지 옵티마이저에 따른 성능평가 비교 Adam vs Nadam vs RMSProp vs SGD

최근에 감성분석이 하고 싶어 해보았는데, 많은 사람들이 각기 다른 Optimizers를 사용하여 각각의 Optimizer결과가 어떻게 다르게 나오는지 궁금하게 되어 시작하였습니다.그래서 이번에 많은 사람들이 감성분석에사용하였던 4가지의 Optimizers로 비교해보려고

2022년 1월 28일
·
0개의 댓글

Optimizer 2

Gradient descent가 발전해온 방향은 크게 두 가지가 있다. 첫 번째는 물리법칙을 따르는 방법 두 번째는 학습을 거듭할수록 일정비율로 학습률을 줄여서 global minima를 지나가지 않게 하는 방법이 그것이다.

2021년 7월 7일
·
0개의 댓글