minyule.log
로그인
minyule.log
로그인
Pre-course 7
김민영
·
2023년 1월 2일
팔로우
0
0
pre_course
목록 보기
7/7
7일차
딥러닝 학습방법 이해하기
신경망을 수식으로 분해
신경망: 비선형모델. 선형모델과 활성함수(activation function)를 합성한 함수
X(nxd): 입력 데이터 행렬, W(dxp): 가중치 행렬(데이터를 다른 공간으로 보냄), b(nxp): y절편(각 행들이 모두 같은 값)
O(nxp) = XW+b
출력 벡터 차원은 d에서 p로 변화
소프트맥스 연산
모델의 출력을 확률로 해석할 수 있게 변환해주는 연산. 분류
softmax(o) = softmax(Wx+b)
추론시: 원-핫 벡터(최대값 가진 주소만 1로 출력하는 연산) 하므로 소프트맥스 사용 x
활성함수: 비선형 함수. ReLU 함수 주로 사용 (과거에는 sigmoid, tanh 함수)
다층퍼셉트론(Multi-Layer Perceptron): 신경망이 여러층 합성된 함수
H = 시그마(Z)
순차적인 신경망 계산: 순전파(forward propagation)
층이 갚을 수록 목적함수 근사하는데 필요한 뉴런(노드) 숫자가 빨리 줄어들어 효율적으로 학습 가능
역전파 알고리즘 backpropagation: 각 층에 사용된 파라미터 학습. 위층에서 아래층으로. 역순으로 계산
합성함수 미분법인 연쇄법칙 기반 자동 미분
미분값 저장해야하므로 메모리 많이 필요
뉴럴 네트워크 - MLP
선형회귀: 입력 - 출력 파라미터 찾기
y = wx + b 에서 w, b 찾기
로스가 줄어드는 방향으로 파라미터 변경: 로스/w 미분해서 역수 방향으로. loss 를 w, b에 대해 편미분, 작아지는 방향으로 반복 계산, 업데이트
y = W^T x + b
내부에 여러 층을 쌓음: 행렬의 곱으로 표현 ( 한 층이랑 비슷함 - 선형이므로 )
-> nonlinear transform 필요
Rectified Linear(ReLU), Sigmoid, Hyperbolic Tangent
loss function: Regression Task, Classification Task, Probabilistic Task
선형변환
Transformation
Domain: 정의역 x
Co-domain: 공역 y
Image: 내부 계산
Range: 치역 y
Linear Transformation 선형대수, 선형변환
input, output 벡터
두 벡터를 계산한 결과를 변환한 것 == 두 벡터 변환한 결과를 계산한 것
선형변환 with Neural Networks
https://colah.github.io/posts/2014-03-NN-Manifolds-Topology/
김민영
노션에 1차 정리합니당 - https://cream-efraasia-f3c.notion.site/4fb02c0dc82e48358e67c61b7ce8ab36?v=
팔로우
이전 포스트
Pre-course 6
0개의 댓글
댓글 작성