# Convolution

18개의 포스트
post-thumbnail

Convolution

output image와 input image는 같은 크기이다 (image 크기가 변하지는 않음).image filtering에는 linear filtering과 non-linear filtering이 있다.linear filtering은 단순히 입력 data를 주변

2022년 4월 19일
·
0개의 댓글
post-thumbnail

[DL] CNN

CNN의 구조와 활용

2022년 3월 26일
·
0개의 댓글
post-thumbnail

RSDP_Image Processing 2

Geometric Transform 은 Fourier 나 Hough transform 처럼 좌표 자체를 바꾼다기보다는 pixel 의 위치를 이동시키는 것이다. Problems of scalingThe amount of infomation is preserved. Dim

2022년 3월 24일
·
0개의 댓글
post-thumbnail

Convolution 연산 이해하기 for CNN

기본적인 다층신경망(MLP)는 각 뉴런들이 선형모델과 활성함수로 fully-connected된 구조각 $$h_i$$ 에 대응하는 가중치 행 $$W_i$$ 가 필요한데 \* 이때 i가 바뀌면서 사용되는 가중치도 바뀌게 된다. Convolution연산은 커널(kerna

2022년 1월 21일
·
0개의 댓글

1x1 Convolution

1x1 Convolution에 대해 알아보기 전에 1x1 Convolution이 왜 사용되기 시작했는지 이해하기 위해 ILSVRC(ImageNet Large Scale Visual Recognition Challenge)라는 Challenge와 대회에서 수상을 했던 5

2021년 12월 27일
·
0개의 댓글
post-thumbnail

Convolution은 무엇일까?

AI를 공부해본 사람이라면 CNN이란 말을 많이 들어봤을 것이다. CNN이란 Convolutional Neural Network의 약자이고 이미지에 관련된 모델에 최적화된 네트워크이다. 본 글에서는 CNN에 사용되는 연산인 Convolution에 대해 다뤄보자.

2021년 12월 27일
·
0개의 댓글

[paper-review] EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks

Tan, M., & Le, Q. (2019, May). Efficientnet: Rethinking model scaling for convolutional neural networks.

2021년 10월 7일
·
0개의 댓글

Depthwise Separable Convolution

MobileNet과 EfficientNet의 뼈대라고 할 수 있다. 모바일 환경이 점차 늘어나면서 '어떻게 하면 network의 크기와 연산량을 줄일 수 있을까?' 하는 고민으로부터 나온 결과물이다.

2021년 9월 27일
·
0개의 댓글
post-thumbnail

Stand-Alone Self-Attention in Vision Models (NIPS 2019) 논문리뷰

original paper현대 computer vision의 기본적인 building block으로 쓰이는 Convolution.그런데 Convolution으로는 입력 데이터상의 long-range dependency 식별에 어려움이 있다.이 문제를 해결하기 위한 다양

2021년 8월 9일
·
0개의 댓글

Frobenius inner product

벡터에만 내적을 하는 줄 알았더니 행렬에도 내적개념이 있었다(!!!). conv layer에서 kernel이 이미지 행렬과 이렇게 연산한다.

2021년 7월 7일
·
0개의 댓글
post-thumbnail

[AI] AlexNet (1) 논문 읽기

유명 논문을 야매로 읽어보za - 내 맘대로 논문 정리 요약하기 (ㅎ_ㅎ)                                                                      알렉스가 만들어서 알렉스넷ㅋ 장난 하나, 장난 둘, 장난 셋, 장난 넷

2021년 5월 12일
·
0개의 댓글
post-thumbnail

OpenCV | 평균값 필터 컨볼루션 연산하기(함수 없이 블러링하기)

결과영상의 원소값에 sum을 넣을때 at함수를 쓰니 자꾸 오류가 났다. 디버깅으로 오류의 원인을 찾아보니 dst객체에 아무것도 들어 있지 않아서 였다. 그래서 처음에 dst에 입력 영상을 저장하고 나중에 원소값을 바꾸는 방식으로 진행했다. 마스크 행렬을 int 배열로

2021년 4월 5일
·
0개의 댓글
post-thumbnail

[RISE] 2주차 수행내용

CNN study

2021년 3월 18일
·
0개의 댓글
post-thumbnail

Backpropagation in CNN / CNN의 역전파 / cmu 11785 lecture12

11-785. Introduction to Deep Learning / Fall 2020 Lecture12를 듣고 요약/정리한 글입니다.CNN에서 역전파가 어떻게 이루어지는지 딱히 고민해본 적이 없었는데 생각보다 상당히 복잡하다는 것을 알게되었고, 그 상세한 과정들을

2021년 3월 13일
·
0개의 댓글
post-thumbnail

History of CNNs & Mathematical details /cmu 11785 lecture10, 11

11-785. Introduction to Deep Learning / Fall 2020 Lecture10 ~ 11. CNNs 를 듣고 요약/정리한 글입니다.저번 강의에서 image data의 효율적인 processing을 위한 scanning 아이디어를 살펴보았다.

2021년 3월 7일
·
0개의 댓글

CBAM: Convolutional Block Attention Module

필자들은 Convolution Block Attention Module (CBAM)을 제안한다.최근의 CNN 성능 향상을 위한 architecture 연구는 크게 3 가지 측면에서 이뤄지고 있다.depthwidthcardinalitydepth와 width의 경우 Res

2020년 6월 30일
·
0개의 댓글