# Neural Network

28개의 포스트
post-thumbnail

MobileNet

Not performance, but efficiency

2023년 5월 14일
·
0개의 댓글
·
post-thumbnail

Implement 2-Layer Neural Net with Sofmax Classifier

Using “CIFAR-10” dataset, Implement 2-Layer Neural Net with Sofmax Classifier.

2023년 3월 16일
·
0개의 댓글
·
post-thumbnail

[논문] Neural Collaborative Filtering

논문 Neural network-based Collaborative Filtering(NCF) - https://arxiv.org/pdf/1708.05031.pdfCollaborative filtering으로 알려진, 개인화 추천 시스템의 핵심은 item에 대

2022년 11월 15일
·
0개의 댓글
·
post-thumbnail

CNN

: convolution과 pooling으로 feature extraction을 하는 neural network커널(혹은 필터)과 이미지의 convolution(합성곱)을 통해 feature를 만드는 과정.즉, 이미지의 픽셀 값을 input으로 커널을 가중치로 하여,

2022년 9월 19일
·
0개의 댓글
·
post-thumbnail

Implicit Neural Representations

1. 정의 INR (Implicit Neural Representations) 는 모든 종류의 신호들(signals)을 Neural Network 를 통해 패러미터화 (paremeterize) 하는 방법이다. Parameterization / 패러미터화 여기서 패러

2022년 8월 31일
·
0개의 댓글
·
post-thumbnail

[HUFSTUDY] 신경망 표현

층을 세는 방법 : hidden layer, ouput layer 수만 셈\*총 층수에는 input layer가 표현되지 않음뉴련 출력 표현 형식 : a 로 표기 하며 l을 위첨자로 취하여 해당 층의 출력값을 표현 해줌. Ex) al : l번째 layer의 출력값가중치

2022년 7월 4일
·
0개의 댓글
·
post-thumbnail

7. [딥러닝] Neural Network

https://blog.kakaocdn.net/dn/bAOhTD/btqWGLTnFdr/Wqsqy07SQAGNSltnYUnrXK/img.png이미지 출처 : http://study.zum.com/book/11779앞서 Linear Regression과

2022년 6월 2일
·
0개의 댓글
·
post-thumbnail

[DeepLeaning from Scratch] 신경망 학습

신경망 학습에서 학습이란 훈련 데이터로부터 가중치 매개변수의 최적값을 자동으로 획득하는 것손실 함수는 신경망이 학습할 수 있도록 해주는 지표이 손실 함수의 결과값을 가장 작게 만드는 가중치 매개변수를 찾는 것이 학습의 목표데이터에서 학습한다는 것은 가중치 매개변수의 값

2022년 5월 29일
·
0개의 댓글
·
post-thumbnail

[DeepLearning from Scratch] 신경망

퍼셉트론으로 복잡한 함수도 표현 가능가중치를 설정하는 작업(원하는 결과를 출력하도록 가중치 값을 적절히 정하는 작업)은 여전히 사람이 수동으로 수행예를 들어, AND, OR 게이트의 진리표를 보면서 적절한 가중치 값을 선정하지만, 퍼셉트론과 달리 신경망은 가중치 매개변

2022년 5월 25일
·
0개의 댓글
·
post-thumbnail

[텍스트 마이닝] 4. Classification - Neural Network

Prediction 과 Backpropagation 의 반복이다. 처음에 Weight 값을 임의의 값으로 설정하고 y-y햇이 최소화되게끔 업데이트한다. 참고Discrete, high-dimensional representation of inputs (one-hot ve

2022년 5월 18일
·
0개의 댓글
·
post-thumbnail

Activation Functions

Activation Functions logistic regression에서 linear transformation 결과에 적용한 non-linear transformation인 sigmoid함수가 activation function에 해당된다. activation f

2022년 4월 16일
·
0개의 댓글
·
post-thumbnail

Basics of Neural Network - Perceptron Model

Dendrites : inputs going into nucleus Nucleus : does the calculationAxon : passes output to other neurons Neural Networks mimic this model Generalized

2022년 4월 10일
·
0개의 댓글
·
post-thumbnail

Neural Network

이 그림과 같이 사람의 neuron을 본뜬 perceptron이 엮여있는 것을 neural network라고 한다.저 그림에서 동그라미 하나가 perceptron에 해당한다.인공지능에서는 스스로 생각할 줄 아는 컴퓨터를 만들기 위해 인간의 뇌를 구성하는 신경세포(뉴런)

2022년 3월 20일
·
0개의 댓글
·

transfer learning

구조: 훈련된 합성곱 기반 층 -> 훈련된 분류기 라고 하면, 훈련시키기 빠르다는 장점이 있지만, end-to-end 컴파일을 하지 않는 이상, 데이터 증식을 사용하지 못하기 때문에 과대적합될 수 있다.위와 같은 코드를 통해 합성곱 기반층 전체를 freezing 시켜

2022년 1월 4일
·
0개의 댓글
·
post-thumbnail

Neural Network with Pytorch #2

MLP, CNN의 개념 및 학습 성능 비교실험의 dataset으로 CIFAR 10을 사용했다.전체 소스코드는 차후에 github으로 제공한다.

2021년 12월 31일
·
0개의 댓글
·
post-thumbnail

Neural Network with Pytorch #1

MLP, CNN의 개념 및 학습 성능 비교실험의 dataset으로 CIFAR 10을 사용했다. Neural Network with Pytorch #2에서 CNN에 대한 내용으로 이어간다.

2021년 12월 30일
·
0개의 댓글
·
post-thumbnail

[Paper review]Deep double descent

DEEP DOUBLE DESCENT: WHERE BIGGER MODELS AND MORE DATA HURT (2020, ICLR)classical한 통계분야에서 '모델이 너무 크면 좋지 않다'라는게 기본적인 인식있음(Bias-variance trade-off: 모델 복

2021년 12월 2일
·
0개의 댓글
·