# Neural Network

Implement 2-Layer Neural Net with Sofmax Classifier
Using “CIFAR-10” dataset, Implement 2-Layer Neural Net with Sofmax Classifier.

[CS231n] Lecture 7: Training Neural Networks II 정리
Stanford University CS231n Lecture 7

[CS231n] Lecture 6: Training Neural Networks I 정리
Stanford University CS231n Lecture 6

[CS231n] Lecture 4: Introduction to Neural Networks 정리
Stanford University CS231n Lecture 4

[논문] Neural Collaborative Filtering
논문 Neural network-based Collaborative Filtering(NCF) - https://arxiv.org/pdf/1708.05031.pdfCollaborative filtering으로 알려진, 개인화 추천 시스템의 핵심은 item에 대

CNN
: convolution과 pooling으로 feature extraction을 하는 neural network커널(혹은 필터)과 이미지의 convolution(합성곱)을 통해 feature를 만드는 과정.즉, 이미지의 픽셀 값을 input으로 커널을 가중치로 하여,

Implicit Neural Representations
1. 정의 INR (Implicit Neural Representations) 는 모든 종류의 신호들(signals)을 Neural Network 를 통해 패러미터화 (paremeterize) 하는 방법이다. Parameterization / 패러미터화 여기서 패러

[HUFSTUDY] 신경망 표현
층을 세는 방법 : hidden layer, ouput layer 수만 셈\*총 층수에는 input layer가 표현되지 않음뉴련 출력 표현 형식 : a 로 표기 하며 l을 위첨자로 취하여 해당 층의 출력값을 표현 해줌. Ex) al : l번째 layer의 출력값가중치

7. [딥러닝] Neural Network
https://blog.kakaocdn.net/dn/bAOhTD/btqWGLTnFdr/Wqsqy07SQAGNSltnYUnrXK/img.png이미지 출처 : http://study.zum.com/book/11779앞서 Linear Regression과

[DeepLeaning from Scratch] 신경망 학습
신경망 학습에서 학습이란 훈련 데이터로부터 가중치 매개변수의 최적값을 자동으로 획득하는 것손실 함수는 신경망이 학습할 수 있도록 해주는 지표이 손실 함수의 결과값을 가장 작게 만드는 가중치 매개변수를 찾는 것이 학습의 목표데이터에서 학습한다는 것은 가중치 매개변수의 값

[DeepLearning from Scratch] 신경망
퍼셉트론으로 복잡한 함수도 표현 가능가중치를 설정하는 작업(원하는 결과를 출력하도록 가중치 값을 적절히 정하는 작업)은 여전히 사람이 수동으로 수행예를 들어, AND, OR 게이트의 진리표를 보면서 적절한 가중치 값을 선정하지만, 퍼셉트론과 달리 신경망은 가중치 매개변

[텍스트 마이닝] 4. Classification - Neural Network
Prediction 과 Backpropagation 의 반복이다. 처음에 Weight 값을 임의의 값으로 설정하고 y-y햇이 최소화되게끔 업데이트한다. 참고Discrete, high-dimensional representation of inputs (one-hot ve

Activation Functions
Activation Functions logistic regression에서 linear transformation 결과에 적용한 non-linear transformation인 sigmoid함수가 activation function에 해당된다. activation f

Basics of Neural Network - Perceptron Model
Dendrites : inputs going into nucleus Nucleus : does the calculationAxon : passes output to other neurons Neural Networks mimic this model Generalized

Neural Network
이 그림과 같이 사람의 neuron을 본뜬 perceptron이 엮여있는 것을 neural network라고 한다.저 그림에서 동그라미 하나가 perceptron에 해당한다.인공지능에서는 스스로 생각할 줄 아는 컴퓨터를 만들기 위해 인간의 뇌를 구성하는 신경세포(뉴런)
transfer learning
구조: 훈련된 합성곱 기반 층 -> 훈련된 분류기 라고 하면, 훈련시키기 빠르다는 장점이 있지만, end-to-end 컴파일을 하지 않는 이상, 데이터 증식을 사용하지 못하기 때문에 과대적합될 수 있다.위와 같은 코드를 통해 합성곱 기반층 전체를 freezing 시켜

Neural Network with Pytorch #2
MLP, CNN의 개념 및 학습 성능 비교실험의 dataset으로 CIFAR 10을 사용했다.전체 소스코드는 차후에 github으로 제공한다.

Neural Network with Pytorch #1
MLP, CNN의 개념 및 학습 성능 비교실험의 dataset으로 CIFAR 10을 사용했다. Neural Network with Pytorch #2에서 CNN에 대한 내용으로 이어간다.

[Paper review]Deep double descent
DEEP DOUBLE DESCENT: WHERE BIGGER MODELS AND MORE DATA HURT (2020, ICLR)classical한 통계분야에서 '모델이 너무 크면 좋지 않다'라는게 기본적인 인식있음(Bias-variance trade-off: 모델 복