# Mini batch

4개의 포스트
post-thumbnail

Batch Normalization

batch normalization은 hyperparameter를 찾는 문제를 더 쉽게 만들어주고 nerual network가 hyperparameter를 선택할 때에 더욱 robust할 수 있게 해준다. Batch / Mini-Batch 전체 train exampl

2022년 4월 18일
·
0개의 댓글
·
post-thumbnail

미니 배치 학습

미니 배치와 미니 배치 학습의 개념을 설명하고, 미니 배치의 평균 교차 엔트로피 오차를 전체 학습 데이터에 대한 평균 교차 엔트로피 오차의 근삿값으로 사용할 수 있음을 설명한다.

2022년 1월 17일
·
0개의 댓글
·

Batch size, Mini batch, Epoch

기본 중에 기본. 모델학습을 처음 시도할 때 'tiny dataset으로 해보는 거고 사용자가 적절히 정해주는 건데 내가 적절히 해주면 얘도 눈치껏 알아먹겠지' 이런 식으로 접근했던 게 일주일치 고생으로 돌아왔다 하하하. 역시 기본기가 탄탄해야 한다.

2021년 7월 8일
·
0개의 댓글
·