- 목표 :
- 3주차 딥러닝 강의 4강까지 듣고 학습 정리하기
- 퀴즈 2개 풀기
- 멘토링 과제 해보기 (pytorch lightning 변환)
- 피어세션 전 스터디 내용 복기- 결과 :
- 3주차 딥러닝 강의 4강까지 듣고 학습 정리하기 (O)
- 퀴즈 2개 풀기 (O)
- 멘토링 과제 해보기 (pytorch lightning 변환) (O)
- 피어세션 전 스터디 내용 복기 (O)
- Implementation Skills (ex. PyTorch)
- Math Skills (Linear Algebra, Probability)
- Knowing a lot of recent Papers
연도 | Ideas | 설명 |
---|---|---|
2012 | AlexNet | 딥러닝을 이용한 방법론으로 첫 우승 |
2013 | DQN | 알파고를 만든 방법론 오늘날의 딥마인드를 있게 한 논문 |
2014 | Encoder / Decoder | Machine Translation |
Adam Optimizer | 기본적으로 탁월한 성능 보장 | |
2015 | GAN (Generative Adversarial Network) | |
ResNet (Residual Networks) | 네트워크를 깊게 쌓을 수 있게 만든 방법론 | |
2017 | Transformer | Attention Is All You Need |
2018 | BERT (Bidirectional Encoder Representations from Transformers) | fine-tuned NLP models |
2019 | OpenAI, BIG Language Models (GPT-3) | an autoregressive language model with 175 billion parameters |
2020 | Self-Supervised Learning | SimCLR : a simple framework for contrastive learning of visual representations |
- stack : 반복적
- affine transformations : 행렬을 곱하는 연산
input과 output이 1차원인 문제에서, 두 개를 연결하는 선형 모델을 찾는 것
→ 2개의 파라미터 (기울기 w, 절편 b) 찾는 문제
w와 b를 어떻게 찾을까?
→ compute the partial derivatives w.r.t. the optimization variables
update(←) the optimization variables by Gradient descent
다차원(multi-dimensional) 적용도 가능
Matrix를 해석하는 한 가지 방법은 두 개의 벡터 공간 사이의 mapping으로 간주하는 것
단순한 두 행렬의 곱셈은 사실상 1층의 layer와 다를 바가 없음
→ 그렇다면 여러 개의 층을 쌓기 위해 필요한 것은?
=>Nonlinear transform
nonlinear activation function
이 필요
CE(Cross-Entropy)를 사용하는 이유
→ 보통 분류 task에서는 Predicted output이 one-hot vector로 표현됨
→ loss를 계산할 때, 해당 class에 속하는 값만 높여주면 됨
MLE(Maximum Likelihood Estimation)
- Probabilistic Task
: 출력값이 숫자가 아니라 확률값일 때
→ 신뢰구간(confident interval), uncertainty 정보를 같이 찾고 싶을 때
[ 데일리스크럼 ]
[ 피어세션 ]