# word embedding

Glossary of Deep Learning : Word Embedding 번역
Ref. https: Jaron Collis's Blog단어 임베딩의 핵심은 텍스트를 숫자로 변환하는 것이다.이러한 변환은 많은 ML 알고리즘에서, 연속적인 값의 vector를 입력으로써 요구하기 때문에 필요하다. 텍스트를 바로 입력으로 사용할 순 없다.따라서

[논문 읽기] GloVe: Global Vectors for Word Representation
오늘은 단어 임베딩의 방법 중 하나인 GloVe에 대해 알아보고자 한다. GloVe는 2014년 스탠포드 대학에서 발표된 단어 임베딩 알고리즘으로, 당시 단어 유추, 유사도 테스트 등에서 SOTA모델을 달성했다.언어를 의미적 벡터 공간에 모델링할 때, 우리는 단어 각각

[혼자 공부하는 머신러닝+딥러닝] - CH.9-1, 2 Sequential Data & RNN
주요 개념 Sequential Data(순차 데이터): 텍스트나 시계열 데이터와 같이 순서에 의미가 있는 데이터 ex) 글, 대화, 일자별 판매 실적 RNN(순환 신경망): 순차 데이터에 잘 맞는 인공 신경망의 한 종류, 순차 데이터를 처리하기위해 고안된 순환층

TextRank
simple : 'Page'Rank -> 'Text'Rank 심플하게 설명한다면, TextRank는 PageRank에서 사용하는 webpage를 text로 대체한 핵심 문장 추출(요약) 및 키워드 추출 알고리즘입니다. PageRank는 Knowledge graph처
[CS224n #1] GloVe: Global Vectors for Word Representation (EMNLP, 2014)
BackgroundWord2vec의 한계 : vector space representation learning의 발달에도 아직 regularities가 아직 부족 (Regularity is the quality of being stable and predictable.
Sentiment Analysis | BASE #1
Movie Review Text Sentiment Analysis RNN(LSTM), CNN 참고 자료 https://dbr.donga.com/article/view/1202/article_no/8891/ac/magazine > 텍스트 감성분석 접근법을 크게 2가지

GloVe, Global Vectors for Word Representation
Word2Vec는 사용자가 지정한 윈도우 내에서만 학습이 이루어지기 때문에 말뭉치 전체의 동시 출현(co-occurrence)은 반영되기 어려운 단점이 있다.

Word2Vec, Word to Vector
원 핫 인코딩을 사용하면서도 단어 간 유사도를 반영할 수 있도록 단어의 의미를 벡터화하는 방법이다.

[Paper Review] (2018, KDD) Real-time Personalization using Embeddings for Search Ranking at Airbnb
작성자 : 장아연 & 이성범 1. INTRODUCTION 
Word Embedding
Deep Learning for Natural Language Deep Learning은 데이터를 모델의 input으로 사용하여, 나온 output 값과 실제 정답과의 차이를 줄여가며 학습을 한다. 예를 들어 이미지가 들어왔을 때, 해당 이미지가 어떤 이미지 인지
[paper-review] Ultradense Word Embeddings by Orthogonal Transformation
Rothe, Sascha, Sebastian Ebert, and Hinrich Schütze. "Ultradense word embeddings by orthogonal transformation."
[NLP]자연어 처리
'온라인 행동정보로 상품 추천' 프로젝트에 '검색어'를 feature로 추가하기 위해서 워드 임베딩을 해야했다. 다음은 워드 임베딩에 이르기까지의 과정이다. 기존에 진행했던 것과 같이 구매로 이어진 세션에서 검색어가 있는 경우만 추출데이터 수 : 22239->1262

[CS224n] Lecture 2 - Word Vectors and Word Senses
작성자 : 투빅스 14기 이혜린 > Contents Word2vec Co-occurrence matrix GloVe Evaluation 1. Word2Vec 텍스트 모델의 핵심은 텍스트를 컴퓨터가 인식할 수 있도록 숫자 형태의 벡터 또는 행렬로 변환하는 것입니다