# Backpropagation

19개의 포스트

[HUFSTUDY] 신경망 학습

+) 코드잇 강의 바로가기 > 본 정리내용은 코드잇 강의를 공부하며 함께 정리한 내용입니다! 더 정확하고 자세한 내용을 공부하기 위해서는 "코드잇 머신러닝 실전 강의를 참고해주세요!" 신경망 경사하강법 > 경사하강법이란? 경사하강법은 특정 값에서 미분값을 이용하여

2022년 7월 18일
·
0개의 댓글
·
post-thumbnail

Vanishing Gradient는 무엇인가?

레이어를 깊이 쌓았을 때 Vanishing/Exploding Geadient 문제가 발생하여 모델의 구혐을 방해하는 문제가 생긴다.신경망은 보이는 층(Visuble layer)와 숨겨진 층(Hidden layer)로 구성되어 있다.보이는 층은 입력층(Input laye

2022년 7월 14일
·
0개의 댓글
·
post-thumbnail

Logistic Regression (Computation Graph)

Computation Graph model을 perceptron이라고 하는데 logistic regression에서는 loss function의 gradient를 통해 w와 b를 찾아야 한다. 코드로 gradient method를 구현할 때에는 최대한 효율적으로 계산

2022년 3월 20일
·
0개의 댓글
·

[Boostcamp AI Tech] AI Math 5강

[Boostcamp AI Tech] 딥러닝 학습방법 이해하기

2022년 1월 21일
·
0개의 댓글
·
post-thumbnail

😄 Lecture 04 | Introduction to Neural Networks

본 글은 Hierachical Structure의 글쓰기 방식으로, 글의 전체적인 맥락을 파악하기 쉽도록 작성되었습니다. > 또한 본 글은 CSF(Curation Service for Facilitation)로 인용된(참조된) 모든 출처는 생략합니다. Introduc

2022년 1월 16일
·
0개의 댓글
·

Derivative of conv layer

MLP에서 backward pass를 리뷰한 것을 활용해서 conv lyaer가 내부적으로는 어떻게 돌아가는지 알아보면 좋을 것 같다는 생각에서 시작했다. 레쓰고.

2021년 12월 22일
·
0개의 댓글
·
post-thumbnail

Stanford University CS231n - Lecture 4 :: Backpropagation and Neural Networks

Review Last lecture (Lecture 3) 모델을 분류하는 방법 1) scores function : w와 x의 값으로 노드의 score 값을 연산 2) SVM loss : score function을 통해서 각 값이 얼마나 특정 클래스에 대해 적합한

2021년 11월 11일
·
0개의 댓글
·
post-thumbnail

1.1 Artificial intelligence, machine learning and deep learning

AI ML Learning representation from data The "deep" in deep learning Understanding how deep learning works, in 3 figures What deep learning has ac

2021년 9월 16일
·
0개의 댓글
·
post-thumbnail

AI Tech 1주차 - DAY 3

선형모델과 활성함수를 합성한 함수 $d$개의 변수 $x_1, ..., x_d$ \* $w\_{ij}$ 연산 => $p$개의 선형모델 $o_1, ..., o_p$이때, 선형모델로 출력된 값은 확률벡터가 아닌 경우가 많기 때문에, 특정 벡터가 어떤 class 에 속할 확률

2021년 8월 5일
·
0개의 댓글
·
post-thumbnail

Neural network

행렬의 역할을 아주 잘 활용한 전형적이 예시가 NN이다.X 행렬에서 데이터를 모아둔다. W에서는 X의 데이터를 다른 차원으로 보내주는 역할을 한다.b 행렬은 y 절편을 열벡터에 한꺼번에 더해주는 역할을 한다.본래 (X, d) 차원이었던 X 행렬은 (n, p) 차원으로

2021년 8월 4일
·
0개의 댓글
·

5장. 오차역전파법 backpropagation - 2

구체적인 구현에 들어가기 전에 신경망 학습의 전체 그림을 복습해 보자. 다음은 신경망 학습의 순서이다.전제신경망에는 적응 가능한 가중치와 편향이 있고, 이 가중치와 편향을 훈련 데이터에 적응하도록 조정하는 과정을 '학습'이라 한다. 신경망 학습은 다음과 같이 4단계로

2021년 7월 27일
·
0개의 댓글
·

5장. 오차역전파법 backpropagation - 1

앞 포스팅에서의 수치미분은 단순하고 구현하기도 쉽지만 시간이 오래 걸린다는 것이 단점이다. 가중치 매개변수의 기울기를 효율적으로 계산하는 오차역전파법(backpropagation)을 이야기해보자. 이해하는 방법은 2가지가 있다. 수식을 통한 것 계산 그래프(compu

2021년 7월 27일
·
0개의 댓글
·
post-thumbnail

[딥러닝] RNN(동작- 백프랍)

둘 다 입력층, 은닉층, 출력층을 가짐왼쪽 그림은 노드를 DMLP와 비교하기 쉽게하기 위해 수직으로 배치한것!RNN은 샘플마다 은닉층의 수가 다름DMLP는 왼쪽에 입력, 오른쪽에 출력이 있지만, RNN은 매 순간 입력과 출력이 있음RNN은 가중치를 공유함DMLP의 가중

2021년 7월 8일
·
0개의 댓글
·
post-thumbnail

딥러닝 - 역전파(Backpropagation)

신경망 알고리즘 요약, 역전파, 경사하강법

2021년 7월 4일
·
0개의 댓글
·
post-thumbnail

Lecture 4 - Backpropagation and Computation Graphs

작성자 : 세종대학교 응용통계학과 조준혁

2021년 4월 28일
·
13개의 댓글
·
post-thumbnail

Backpropagation in CNN / CNN의 역전파 / cmu 11785 lecture12

11-785. Introduction to Deep Learning / Fall 2020 Lecture12를 듣고 요약/정리한 글입니다.CNN에서 역전파가 어떻게 이루어지는지 딱히 고민해본 적이 없었는데 생각보다 상당히 복잡하다는 것을 알게되었고, 그 상세한 과정들을

2021년 3월 13일
·
0개의 댓글
·
post-thumbnail

[210122 TIL] PyTorch, 역전파

학회에서 제공받은 <파이썬 딥러닝 파이토치> 책으로 파이토치 다시 한 번 제대로 공부해보기! clamp(), mm(), pow() backward(), item(), torch.no_grad(), grad(), grad.zero()

2021년 1월 23일
·
0개의 댓글
·
post-thumbnail

[CS224n] Lecture 4 - Backpropagation and Computation Graph

작성자 : 투빅스 13기 이재빈 > Contents Matrix Gradients for Neural Nets Computation Graphs and Backpropagation Tips and Tricks for Neural Networks 1. Matrix G

2020년 12월 28일
·
0개의 댓글
·