# LSA

9개의 포스트

수업 59일차 네트워크 OSPF 멀티 에어리어 , LSA , 네이버인증 , 수동 축약 , OSPF Virtual Link

■ OSPF 멀티 에어리어 OSPF는 중대형망을 관리하기 편한 작은 영역(area)들로 나눠서 관리 SPF 계산 빈도 감소 : 네트워크 변화에 직접 영향을 받는 에어리어 내부에서 경로 계산 ABR 라우터가 다른 에어리어로 변화된 경로광고 백본 영역, 표준 영역, 특수 영역으로 나눔 백본 영역은 Area 0, 단일 영역일 때 0번만 사용 다른 영역들은 백본 영역에 직접 연결되어야 함. 특수 영역은 스텁 영역 전체 스터비 영역, NSSA가 있음 ABR 라우터 (Area Border Router) : 2개 이상의 영역에 걸쳐있는 라우터 다른 영역과의 경로 정보 교환 ASBR 라우터 : 서로 다른 라우팅 프로토콜 사이에 걸쳐있는 라우터 다중 영역은 라우팅 프로토콜 구성 시 AREA넘버 지정으로 구현 재분배를 해주는 라우터 ■ LSA (Link State Advertisement)

2022년 12월 18일
·
0개의 댓글
·
post-thumbnail

주제 분석(Topic Analysis)

주제 분석의 방법 중 행렬 분해에 의한 방법과 확률 분포에 의한 방법이 있다. 그 중 행렬 분해애 의한 방법은 크게 LSA(Latent Semantic Analysis)와 NMF(Non-Negative Factorization)로 나눌 수 있다. LSA는 잠재 의미를 분석한다는 뜻으로 단어 문서 행렬을 여러 행렬의 곱으로 분해해서 잠재 의미를 추출하는 방식이다. 즉 단어 문서 행렬 $X$를 $ZW$의 형태로 분해해서 표현한다. $Z$는 말하자면 주제, $W$는 가중치이다. 보통 $Z$는 $X$보다 차원이 축소된 형태이다. ( $X : mn, Z : mk, W: k*n$) LSA에서 행렬을 분해하는 방식은 다양하나 그 중 SVD(Singular Value Decomposition)가 대표적이다. SVD는 $m*n$ 크기의 단어 문서 행렬 M을 $U\sum V^T$형태의 행렬의 곱으로 분해한다. TruncatedSVD 방식은 SVD에서 $U, \sum$, $V^T$에서 k개의

2022년 12월 16일
·
0개의 댓글
·
post-thumbnail

[컴퓨터 네트워크] OSPF Packet 종류

Hello message 자신의 이웃을 알기위해 보내는 메세지이다. link state의 1단계에서 진행하는 것이다. P2P 방식에서의 hello 메세지 전송하는 방식으로 D는 헤더의 소스주소를 통해 A의 주소를 알고 A는 D의 hello응답 메세지를 통해 D의 주소를 안다. > #### 💡 hello 메세지를 주고받는 예시 > - hello 메세지를 주고 받은 후 D의 이웃은 N3(즉 Designted router)이고 E의 이웃은 N3(DR), F의 이웃도 N3(DR)이다. N3의 이웃은 D,E,F이다. > - DR를

2022년 11월 21일
·
0개의 댓글
·

[CS224n #3] Topic Modeling - LSA/LDA/ BERTopic

0. Summary Topic modeling : corpus 집합에서 통계적 분석 방식을 사용해서 문서의 context를 담고 있는 유의미한 word를 뽑아내고 representation 만들기. DTM : Document-Term Matrix / 문서 단어 행렬 키워드로 보는 Method LSA : #유사도, #토픽 모델링 아이디어 시초 #SVD LDA : #확률분포, #문서별 토픽분포 추가 BERTopic : #SOTA, #clustering, #class-based TF-IDF, #BERT keypoint! 각 method별 한계와 극복 방법 + 최신엔 어떤 걸 쓰고 있나? > - LSA paper : [Landauer, T. K., Foltz, P. W., & Laham, D. (1998). An introduction to latent semantic analysis.

2022년 9월 21일
·
0개의 댓글
·

딥러닝 기반 음성인식 기초

Audio Auto Tagging 오디오 신호에서 발생하는 이벤트 종류를 찾는 문제 아기의 웃음 소리나 기타 소리가 동시에 있는 소리는 즉시 인식 전기 톱 소리와 믹서기 소리는 유사해 인식하기 어려움 여러 이벤트를 tagging하는 multi-label classification Metric IR(Information Retrieval) 실제로 1인 label에 대해 얼만큼 높은 확률로 예측 Average Precision precision-recall 그래프의 아래 면적 Rank-Average Precision LRAP(Label-Weighted-Label-Ranking-Average-Precision) 라벨이 1인 값에 대해서만 rank precision 계산 multi-label ranking 문제에서 자주 사용 precision-recall 대신 label ran

2022년 7월 9일
·
0개의 댓글
·
post-thumbnail

[Aiffel] 아이펠 51일차 개념 정리 및 회고

1. 개념 정리 1) Bag of Words 한 문서의 텍스트를 단어 단위로 토큰화 단어를 무작위로 섞어 순서를 무시하지만 단어의 등장 빈도수를 저장 한계 순서를 무시하기 때문에 위와 같은 두 사례를 같은 경우라고 판단. 어순에 따라 달라지는 의미를 반영하지 못함. 2) DTM (Document-Term Matrix) Bag of Words를 하나의 행렬로 구현한 것 = 여러 문서를 이용하며, 각 문서에 등장한 단어의 빈도수를 하나의 행렬로 통합함. 행 = 문서 / 열 = 단어 (반대의 경우는 TDM이라고 칭함.) 한계 저장 공간 낭비(+차원의 저주): 이용하는 문서, 단어의 수가 늘어날 수록 행, 열의 대부분 값이 0을 가지게 됨. 단어 빈도

2022년 3월 21일
·
0개의 댓글
·

텍스트 벡터화

Word2Vec의 대중화 이전에, 텍스트의 분포를 활용하여 텍스트를 벡터화하는 아이디어를 들여다보자. 단어 빈도를 이용한 벡터화 (1) Bag of Words (2) Bag of Words 구현해보기 (3) DTM과 코사인 유사도 (4) DTM의 구현과 한계점 (5) TF-IDF (6) TF-IDF 구현하기 LSA와 LDA (1) LSA (2) LSA 실습 (3) LDA (4) LDA 실습 텍스트 분포를 이용한 비지도 학습 토크나이저 (1) 형태소 분석기와 단어 미등록 문제 (2) soynlp 텍스트를 벡터화하는 방법으로는 (1) 통계와 머신러닝 활용, (2) 인공 신경망을 활용하는 두가지 방법이 있다. 이번엔 전자의 방법으로 가보자 [BoW, DTM, TF-IDF 차이](https://m.blog.naver.com/PostView.naver?isHttpsRed

2022년 3월 7일
·
0개의 댓글
·

Topic modeling(LSA, LDA)

Topic modeling의 두 가지 알고리즘을 구현해 보자. ▪ LSA(잠재의미 분석) >LSA(Latent Semantic Analysis)는 DTM이나 TF-IDF 행렬에 Truncated SVD를 사용하여 차원을 축소시키고, 단어들의 잠재 의미를 끌어낸다. ✅ 영어 버전 구현(fetch_20newsgroups dataset) ▪ LDA(잠재 디리클레 할당) >LDA(Latent Dirichlet Allocation)은 문서 집합에서 존재하는 토픽을 찾는 알고리즘으로, 단어가 특정 토픽에 존재할 확률과 문서에 특정 토픽이 존재할 확률을 결합확률로 추정하여 토픽을 추출한다. ✅ 영어 버전 구현(fetch_20newsgroups dataset) ✅ 한글 버전 구현(customed-data) > 1:1 문의내역 데이터를 dataset으로 설정하여 분석을 진행했다. ◾ Reference <a href

2022년 1월 28일
·
0개의 댓글
·

NLP_L2_Vectorization_KIY

.png).png) 단어 빈도를 이용한 벡터화 (1) Bag of Words 텍스트를 숫자로 변환하는 벡터화, 그래야 컴퓨터가 알아들을 수 있으니까 벡터화 방법으로는 (1) 통계와 머신 러닝을 활용한 방법 (2) 인공 신경망을 활용하는 방법 이번에는 (1)번만 배울 예정이다. Bag of Words (BoW) 단어들의 분포로 문서를 특성을 파악하는 기법 ![](https://aiffelstaticprd.blob.core.windows.net/media/images/GN-2-L-1.max-8

2021년 4월 10일
·
0개의 댓글
·