# word embedding

14개의 포스트
post-thumbnail

Glossary of Deep Learning : Word Embedding 번역

Ref. https: Jaron Collis's Blog단어 임베딩의 핵심은 텍스트를 숫자로 변환하는 것이다.이러한 변환은 많은 ML 알고리즘에서, 연속적인 값의 vector를 입력으로써 요구하기 때문에 필요하다. 텍스트를 바로 입력으로 사용할 순 없다.따라서

2023년 7월 21일
·
0개의 댓글
·
post-thumbnail

[논문 읽기] GloVe: Global Vectors for Word Representation

오늘은 단어 임베딩의 방법 중 하나인 GloVe에 대해 알아보고자 한다. GloVe는 2014년 스탠포드 대학에서 발표된 단어 임베딩 알고리즘으로, 당시 단어 유추, 유사도 테스트 등에서 SOTA모델을 달성했다.언어를 의미적 벡터 공간에 모델링할 때, 우리는 단어 각각

2023년 3월 20일
·
0개의 댓글
·
post-thumbnail

[혼자 공부하는 머신러닝+딥러닝] - CH.9-1, 2 Sequential Data & RNN

주요 개념 Sequential Data(순차 데이터): 텍스트나 시계열 데이터와 같이 순서에 의미가 있는 데이터 ex) 글, 대화, 일자별 판매 실적 RNN(순환 신경망): 순차 데이터에 잘 맞는 인공 신경망의 한 종류, 순차 데이터를 처리하기위해 고안된 순환층

2022년 11월 16일
·
0개의 댓글
·
post-thumbnail

TextRank

simple : 'Page'Rank -> 'Text'Rank 심플하게 설명한다면, TextRank는 PageRank에서 사용하는 webpage를 text로 대체한 핵심 문장 추출(요약) 및 키워드 추출 알고리즘입니다. PageRank는 Knowledge graph처

2022년 10월 26일
·
0개의 댓글
·

[CS224n #1] GloVe: Global Vectors for Word Representation (EMNLP, 2014)

BackgroundWord2vec의 한계 : vector space representation learning의 발달에도 아직 regularities가 아직 부족 (Regularity is the quality of being stable and predictable.

2022년 8월 16일
·
0개의 댓글
·

Sentiment Analysis | BASE #1

Movie Review Text Sentiment Analysis RNN(LSTM), CNN 참고 자료 https://dbr.donga.com/article/view/1202/article_no/8891/ac/magazine > 텍스트 감성분석 접근법을 크게 2가지

2022년 2월 9일
·
0개의 댓글
·
post-thumbnail

GloVe, Global Vectors for Word Representation

Word2Vec는 사용자가 지정한 윈도우 내에서만 학습이 이루어지기 때문에 말뭉치 전체의 동시 출현(co-occurrence)은 반영되기 어려운 단점이 있다.

2021년 11월 19일
·
0개의 댓글
·
post-thumbnail

Word2Vec, Word to Vector

원 핫 인코딩을 사용하면서도 단어 간 유사도를 반영할 수 있도록 단어의 의미를 벡터화하는 방법이다.

2021년 11월 19일
·
0개의 댓글
·
post-thumbnail

[Paper Review] (2018, KDD) Real-time Personalization using Embeddings for Search Ranking at Airbnb

작성자 : 장아연 & 이성범 1. INTRODUCTION ![](https://images.velog.io/images/tobigs-recsys/post/530ed6a0-d72a-43d0-b6ba-c38cf3e3e416/%EC%8A%AC%EB%9D%BC%EC%9D%B

2021년 5월 24일
·
2개의 댓글
·
post-thumbnail

Word Embedding

Deep Learning for Natural Language Deep Learning은 데이터를 모델의 input으로 사용하여, 나온 output 값과 실제 정답과의 차이를 줄여가며 학습을 한다. 예를 들어 이미지가 들어왔을 때, 해당 이미지가 어떤 이미지 인지

2021년 4월 19일
·
0개의 댓글
·

[paper-review] Ultradense Word Embeddings by Orthogonal Transformation

Rothe, Sascha, Sebastian Ebert, and Hinrich Schütze. "Ultradense word embeddings by orthogonal transformation."

2021년 2월 19일
·
0개의 댓글
·

[NLP]자연어 처리

'온라인 행동정보로 상품 추천' 프로젝트에 '검색어'를 feature로 추가하기 위해서 워드 임베딩을 해야했다. 다음은 워드 임베딩에 이르기까지의 과정이다. 기존에 진행했던 것과 같이 구매로 이어진 세션에서 검색어가 있는 경우만 추출데이터 수 : 22239->1262

2021년 1월 14일
·
0개의 댓글
·
post-thumbnail

[CS224n] Lecture 2 - Word Vectors and Word Senses

작성자 : 투빅스 14기 이혜린 > Contents Word2vec Co-occurrence matrix GloVe Evaluation 1. Word2Vec 텍스트 모델의 핵심은 텍스트를 컴퓨터가 인식할 수 있도록 숫자 형태의 벡터 또는 행렬로 변환하는 것입니다

2020년 12월 20일
·
0개의 댓글
·

fasttext 훈련 시 pretrainedVectors 추가하기

fasttext model을 추가로 훈련해보자!

2020년 12월 3일
·
0개의 댓글
·