# RNN

109개의 포스트
post-thumbnail

[NLP] RNN 모델 : RNN Model

RNN 모델 중 RNN Model

3일 전
·
0개의 댓글
post-thumbnail

[Pandas]문자 데이터 전처리

최근 ML을 하는데 있어서 데이터의 전처리의 중요성을 크게 느낀다.사람마다 데이터 처리에 있어서 사용하는 툴은 비슷하지만, 그 모델에 어떤 값을 집어넣느냐에 따라서 결과가 천차 만별이기 때문이다. (feat. 왜 내 loss값은 안떨어져...?) 오늘은 최근에 진행하

4일 전
·
0개의 댓글
post-thumbnail

[ML]seq2seq & RNN & LSTM 이란?

가장 기본적인 RNN 형태(케라스에서는 SimpleRNN)출력 결과가 이전의 계산 결과에 의존한다는 것 = 이번 출력 결과는 다음번 결과에 영향을 줌비교적 짧은 시퀀스(sequence)에 대해서만 효과를 보이는 단점이 있음 \+ 시점(time step)이 길어질 수

4일 전
·
0개의 댓글
post-thumbnail

Attention Mechanism

Keywords seq2seq Attention Function (Query, Key, Value) Attention Score / Attention Weight / Attention Value Transformer MultiModal Attention Mechani

6일 전
·
0개의 댓글
post-thumbnail

deep-learning-RNN #2

오늘은 colab을 통하여 간단한 RNN실습을 해보겠다!<span style='background-color: =<span style='background-color: -<span style='background-color: -위에서 :, 1:2.val

2022년 5월 16일
·
0개의 댓글
post-thumbnail

deep-learning-RNN #1

RNN 이란? = 우선 오늘 알아볼 RNN은 재귀신경망(Recursive Neurel Network) 이 아닌 순환 신경망(Recurrent Neural Network)입니다.순환신경망(Recurrent Neural Network)은 사슬(체인)형태의 계산 그래프를 사

2022년 5월 16일
·
0개의 댓글
post-thumbnail

[딥러닝 모델] RNN 과 LSTM

https://wikidocs.net/22886https://ratsgo.github.io/natural%20language%20processing/2017/03/09/rnnlstm/RNN은 입력과 출력을 시퀀스 단위로 처리하는 시퀀스 모델이다. 예를

2022년 5월 1일
·
0개의 댓글
post-thumbnail

LSTM과 Seq2Seq

Keywords Lagging, 단층 LSTM, Deep RNN, Univariate, Multivariate, 차분, 선후관계/ Spread, Seq2Seq LSTM Lagging Issue Univariate Multivariate Univariate v

2022년 4월 9일
·
0개의 댓글
post-thumbnail

RNN과 시계열데이터

Back Ground 시계열 데이터: 어떤 데이터의 변화가 시간에 종속되는 데이터 Nono-Stationarity 를 가진다. 시계열을 다루기위해서는, 시간에 따라 변화되는 데이터 요소를 제거해야한다. RNN (순환 신경망) > Recurrent Neural N

2022년 4월 4일
·
0개의 댓글
post-thumbnail

시계열 데이터

시계열 데이터 > Most time series models work under the assumption that the underlying data is stationary, that is the mean, variance, and covariance are no

2022년 4월 3일
·
0개의 댓글
post-thumbnail

Hackerton - Project Intro

긴 학습 기간이 끝났다. AIFFEL을 졸업(3.10)하고 푹 쉬었다.바쁜 하루하루를 보내느라 정리하지 못했던 것들을 하나둘 정리하고 마지막으로 해커톤 프로젝트를 블로그에 정리해보려고 한다.왜 이 Project를 시작했는지, 어떤 과정을 거쳤는지, 하나둘 정리해보아야겠

2022년 3월 19일
·
0개의 댓글
post-thumbnail

LSTM

cell state로 이전단계의 정보의 소실이나 변형을 줄임

2022년 3월 17일
·
1개의 댓글
post-thumbnail

vanilla RNN

이전의 h벡터를 입력에 사용한다

2022년 3월 17일
·
0개의 댓글
post-thumbnail

[DL] 순환 신경망(RNN)

순환 신경망 모델의 구조와 장단점

2022년 3월 12일
·
0개의 댓글

[TIL] 03.08(화)

varnilla RNNgradient exploding/vanishingLSTM(Long Short-Term Memory)GRUpytorch를 이용한 RNN의 구체적 구현방법tensor를 다루는 방법

2022년 3월 10일
·
1개의 댓글

RNN

[n423] SECTION 04 Sprint 2 Natural Language Processing RNN

2022년 3월 4일
·
0개의 댓글
post-thumbnail

[Aiffel] 아이펠 40일차 개념 정리 및 회고

1. 컴퓨터 이론 2. RNN 정리 3. 회고

2022년 2월 23일
·
0개의 댓글

[Aiffel] 아이펠 38일차 개념 정리 및 회고

1. 추천 시스템 입문 2. cs231n Lecture 10 3. 회고

2022년 2월 21일
·
0개의 댓글

[부스트캠프 AI Tech 3기] 4주차 정리 & 회고

딥러닝은 방대한 분야 → 장님이 코끼리 만지는 격무엇이 좋은 딥러너의 요소인가구현 스킬, 수학 스킬(선형대수, 확률론), 논문 따라가기인공지능 → 사람의 지능을 모방하는 것인공지능 > 기계학습 > 딥러닝딥러닝 연구 ≠ 인공지능 전체 연구딥러닝에 중요한 요소들: 염두해

2022년 2월 11일
·
0개의 댓글