# Dimension Reduction

PCA와 K-means 최적화
클러스터링 과정에서 문제가 생겼다. 차원 축소와 K-means 최적화를 진행하지 않고 디폴트로 주어진 값으로 계산해 버린것.....아직은 클론 코딩만 하다보니 코드를 세세하게 점검하는게 미흡하다.

Dimension Reduction - LLE
앞에서 공부했던 PCA는 선형으로 투영했을때 분산이 가장 큰 축을 기준으로 차원을 축소해나갔다. 이번에 공부할 LLE는 비선형 차원축소에 해당한다. 먼저, 위와같이 3차원에서 스위스롤과 같은 형태로 데이터가 분포해 있을때, PCA와 MDS 차원축소 방법을 사용하면 데이

Dimension Reduction - PCA
PCA 다차원 데이터의 분포를 최대한 유지하며 저차원의 데이터로 표현하는 것이다. Covariance Matrix의 Eigenvalue가 최대 variance인 이유 최대 Variance가 데이터의 분포를 가장 잘 표현하는 이유 Pros 적은 데이터로 원본을 표현

PCA, t-SNE, MDS, Isomap 을 이용한 2,3차원 도형 차원 축소
Level2 멘토링 첫번째 과제인 차원 축소 시각화 해결 내용

파이썬 머신러닝 완벽 가이드 - 7. Dimension Reduction(2) (SVD, NMF)
: PCA와 유사. 정방 행렬뿐만 아니라 행과 열의 크기가 다른 행렬에도 적용 가능Full SVD$A = U \\sum V^T$$A$ : 행렬, $U$, $V$: 특이벡터(Singular vector)로 된 행렬, $\\sum$ : 대각행렬$\\sum$ : 대각행렬

파이썬 머신러닝 완벽 가이드 - 7. Dimension Reduction(1) (PCA, LDA)
: 매우 많은 피처로 구성된 다차원 세트의 차원을 축소해 새로운 차원의 데이터 세트를 생성하는 것다차원 데이터 세트의 문제점차원이 증가할 수록 데이터 포인트 간의 거리가 기하급수적으로 멀어지고, 희소한Sparse 구조를 가져 예측 신뢰도가 떨어진다.다중공선성 문제(독립

[AIB]Note133~4 Dimension reduction, Clustering
https://youtu.be/g-Hb26agBFg선형 변환은 임의의 두 벡터를 더하거나 스칼라 곱을 하는 것을 말한다. 두 벡터 공간 사이의 함수, 한 점을 한 벡터 공간에서 다른 벡터 공간으로 이동시키는데 그 이동규칙을 선형 변환이라고 한다.f를 활용해서
[데이터 분석] Dimension Reduction
오늘 학습하면서 메모한 내용들을 간단히 업로드 해본다. Dimension Reduction을 배웠다. 지금까지 배웠던 선형대수가 데이터분석에서 어떻게 쓰이는지에 대해서 알게되었던 것 같다. 이런 기본기를 확실히 다져놔야 나중에 고생안하겠다라는 생각이 문득 들기도 한 것

차원 축소 알고리즘을 비교해보자 (PCA, T-sne, UMAP)
차원 축소 알고리즘들은 축소하는 방법에 의해 두 가지로 나눌 수 있음matrix factorization 계열 - pcaneighbour graphs - t-sne, umapmatrix factorization 을 base 로 함 (공분산 행렬에 대해서 svd 등)분산
[인사이드 머신러닝] 차원축소: 선형판별분석 (Linear Discriminant Analysis, LDA)
LDA는 전통적인 선형 학습법이며, 이진 분류 문제에서 Ronald A. Fisher가 가장 먼저 사용하였기 때문에 Fisher's discriminant analysis (FDA)라고도 불린다. 아이디어는 간단하지만 강력하다. 훈련 데이터를 어떠한 직선 위에 투영시킨