[딥러닝 1단계] 4. 신경망 학습 (딥러닝)

2-pi-r·2024년 4월 10일
0

인공지능

목록 보기
5/7

강의

  • 학습 목표 :
    • cost 함수 JJ의 값이 최소가 되도록 하는 w와 b를 찾는 것
  • 방법 :
    • 경사하강법 이용
  • 학습 과정 (의사 코드) :
    for 반복 횟수
    	for 모든 데이터
    		1. **순전파** (Forward pass) `→ predict`
      		2. **역전파** (Backward pass) `→ 도함수 계산`
      		3. `가중치 업데이트`

흐름


  • 표 부연설명

    • a[l1]a^{[l-1]} : level (l1)(l-1)a=σ(z)a = σ(z)
    • 정전파 → aa 계산
      역전파 → dada 계산 (aa를 미분한 것)
  • 순전파/역전파 구현에서

    • 캐시(cache)는 순전파에서의 변수를 → 해당하는 역전파 단계에 전달한다.
    • output인 aa 말고도 zz, ww, bb를 전달하면 미분값을 계산할 때 유용하기 때문이다.

디버깅 : 행렬 shape을 확인하자


  • 설명
  • 벡터화
    • ww, bb는 모든 데이터에 대해 공통이므로 그대로.
    • ZZ, XX만 바뀜.
    • bb는 그대로긴 한데 (n[1],m)(n^{[1]}, m)으로 브로드캐스팅된 후 더해짐.

0개의 댓글