# torch's breath

[토치의 호흡] 11 About Transformer PART 05 "Classification_by_DIY_TRANSFORMER"
썸네일 이미지 출처 : 06 NLP Basic Classification with GRU에서 진행했던 내용을 그대로 진행한다. 단, Model 부분을 Encoder와 TransformerEncoderModel로 교체할 뿐이다. 오늘은 그래서 글이 길지 않을 것이다. 기

[토치의 호흡] 10 About Transformer PART 04 "In EncoderLayer: Multi Head Attention"
썸네일 이미지 출처 INTRO : 이번 포스트에서는 EncoderLayer의 내부를 살펴보도록 한다. 정확히 말하자면, Multi Head Attention, PositionwiseFeedForwardLayer 에 대해서 다룰 것이다. 이 포스트를 보기 전에

[토치의 호흡] 07 About Transformer PART 01 간단한 구조 설명
NLP에 발을 담근 이상, 트랜스포머는 마주해야한다. 그런데 슬프게도 필자는 무엇부터 봐야할 지 알 수 없었다. 고민 끝에 밤 10시까지 사무실에 남아서 Seq2Seq부터 공부를 하기 시작했다. 시간이 없었다고, 가르쳐주지 않았다고 해서 모른다고 누군가 친절하게 나타

[토치의 호흡] 08 About Transformer PART 02 "Positional Encoding Layer"
NLP에 발을 담근 이상, 트랜스포머는 마주해야한다. 그런데 슬프게도 필자는 무엇부터 봐야할 지 알 수 없었다. 고민 끝에 밤 10시까지 사무실에 남아서 Seq2Seq부터 공부를 하기 시작했다. 시간이 없었다고, 가르쳐주지 않았다고 해서 모른다고 누군가 친절하게 나타

[토치의 호흡] 05 NLP Basic "Text to Tensor"
필자의 경우, 패스트캠퍼스 수강생 시절 원래는 Computer Vision 쪽으로 진출하여, 모든 남성분들의 고민인 '탈모' 인지 및 그 정도를 분석하는 모델을 개발하는 일을 하고 싶었다. 하지만, 김용담 강사님의 "NLP 재미있어요." 라는 말 한 마디에 지금까지 N

[토치의 호흡] 04 RNN and his firends PART 02
: 지난 시간에 이어서 시계열 데이터 예측을 다른 모델과 다른 방법으로 진행해보려 한다.: RNN에 대한 기본적인 개념과 지식은 어느 정도 알고 있다고 가정하고 시작하겠다.Kaggle에 Bitcoin Historical Data 라는 데이터셋을 사용한다. EDA, PR

[토치의 호흡] 02 CLASSIFICATION
: 두 번째로 기본적인 CLASSIFICATION 문제를 풀어보려고 한다. Torchvision에서 CIFAR10 데이터를 사용해보도록 한다. EDA, PREPROCESSING 모두 생략 -> BASIC FLOW에 익히는 것이 목적가장 중요 데이터의 Shape 추적은

[토치의 호흡] 01 REGRESSION
INTRO : 처음에 가장 부담없는 REGRESSION 문제를 풀어보려고 한다. SCIKIT-LEARN에서 CALIFORNIA HOUSING 데이터를 사용해보도록 한다. EDA, PREPROCESSING 모두 생략 -> BASIC FLOW에 익히는 것이 목적

토치의 호흡: RISE OF TORCH
2022년 이어드림과정에서 LM으로서, 수강생분들의 Pytorch의 Basic Flow를 익히는 데 도움을 줄 수 있도록, '토치의 호흡'을 운영했다. 그 때 당시에 필자 스스로도 공부를 많이 했다. 수강생분들에게 최대한 정확하고 많은 것을 알려드리기 위해서 말이다.