# dimensionality reduction

8개의 포스트

[ML] dimensionality reduction (차원 축소)

모델 복잡도를 줄이고 overfitting 을 방지하는 방법 중 하나 feature selection : original feature 에서 일부를 선택. feature extraction: original feature 에서 새로운 feature 생성

2023년 8월 23일
·
0개의 댓글
·

Dimensionality Reduction & Unsupervised Learning(수정중)

Dimentionality Reduction (Curse of Dimensionality)Projection -> PCA & Kernel PCA | SubspaceManifold Learning | Hyperplane, ManifoldClustering K-MeansD

2023년 4월 11일
·
0개의 댓글
·
post-thumbnail

PCA, Dimensionality Reduction, 차원축소

차원의 저주를 해결하는 방법, PCA

2022년 8월 13일
·
0개의 댓글
·

Eigenvalue & Eigenvector

벡터변환, 고유값과 고유벡터, 직교, 단위벡터, 차원축소의 이유를 간단히 정리

2022년 4월 13일
·
0개의 댓글
·
post-thumbnail

Kernel PCA

주성분분석(Principal Component Analysis, 이하 PCA) 의 기본원리는 Input Matrix의 고유값을 이용해 Input 데이터들의 성분을 분리하는 것이다.Input Matrix $\\mathbf{X}$가 p개의 성분과 첫 열로 일벡터를 가지는

2022년 2월 20일
·
0개의 댓글
·