# batch size

4개의 포스트
post-thumbnail

[딥러닝] epoch, batch size, iteration

입사 테스트 시험 문제로 batch size가 나왔다. 딥페이크로 졸업 프로젝트 할 때랑, 작년에 실험 계획서+실험 준비할 때가 생각났다. 얕고 넓은 내 지식... 자꾸 헷갈려-\_- 잘 정리해주신 분 꺼 보고 기록해두기.epoch : 전체 트레이닝셋이 신경망을 통과한

2022년 7월 6일
·
0개의 댓글
·

📌 배치 사이즈(batch size), 에포크(epoch), 반복(iteration)의 차이는?

배치는 메모리에서 CPU에 올릴 수 있는 최대 데이터(이미지) 양에포크는 모델 훈련 반복 횟수if 배치 사이즈가 너무 크면 아래의 문제가 발생 1\. 학습 속도가 느려짐 2\. 메모리 부족 문제\-> 배치 사이즈를 줄여서 많은 배치로 나눠 훈련시키는게 좋음

2022년 3월 6일
·
0개의 댓글
·

Batch size, Mini batch, Epoch

기본 중에 기본. 모델학습을 처음 시도할 때 'tiny dataset으로 해보는 거고 사용자가 적절히 정해주는 건데 내가 적절히 해주면 얘도 눈치껏 알아먹겠지' 이런 식으로 접근했던 게 일주일치 고생으로 돌아왔다 하하하. 역시 기본기가 탄탄해야 한다.

2021년 7월 8일
·
0개의 댓글
·