[CV] AlexNet

myeongwang·2024년 1월 30일
0

딥러닝 모델의 등장

ImageNet Large Scale Visual Recognition Challenge winners

AlexNet 구조

Convolution - Pooling - Batch Normalization의 구조

Convolution Layer

Active Function

ReLU가 가장 좋은 성능을 보여 도입 !

Pooling Layer

Overlapping Pooling을 했을 때 그렇지 않은 경우 (F=2, S=2)보다 좋은 성능을 보였다고 함

Local Response Normalization

Lateral Inhibition 현상: 강하게 활성화된 뉴런이 다른 뉴런의 값을 억제하는 현상

  • 너무 강하게 활성화된 뉴런이 있을 경우 주변 뉴런들에 대해서 Normalization 진행
  • Normalize를 통해 강하게 활성화된 뉴런의 값을 감소시켜, 특정 뉴런만 활성화되는 것을 막음
  • 이후에는 Batch Normalization을 주로 사용

Overfitting 방지

Data Augmentation

학습 데이터에 변형(Augmentation)을 가해서 좀 더 다양성을 지닌 데이터로 학습될 수 있도록 하는 방법

Drop Out

  • 뉴런 중 일부를 일정 비율(p)로 생략하면서 학습을 진행하는 방법
  • 몇몇 뉴런의 값을 0으로 바꾸어서 학습 시에 영향을 미치지 못하도록 만들어 일정 뉴런의 값에 치중해 학습되는 것을 방지함
  • Dropout은 학습 시에만 행해지고, 테스트를 할 때는 모든 뉴런을 사용함
profile
Real Cryptocurrency Trader & AI Engineer LV.0

0개의 댓글