# Eigenvalue

10개의 포스트

[8-2]Eigenvalue & Eigenvector

사실상 이걸 이해하기 위하여 공업 수학 정리를 시작했다. 공학 전공이지만 문과 찍먹 공학 찍먹을 한 내 입장에서는 기본기가 정말 중요했다. Depth 있게 공부해보고자 한다. Eigenvalue & Eigenvector Definition $\mathbf{A\in\mathbb{R^{n\times n}}}$ (Square matrix) 그렇다면, $\lambda\in \mathbb{R}$는 $\mathbf{A}$의 eigenvalue라고 한다. $\mathbf{x}\in\mathbb{R^n}-\{0\}$는 $\mathbf{A}$의 eigenvector라고 하며, eigenvalue와 eigenvector는 corresponding이 되어 있다. 그렇기에 무수히 많은 eigen value/vector 후보가 있는 와중에 아래 식이 성립이 되는 것이다. 이들의 관계식은 아래와 같이 표현하며 "Eigenvalue equation"이라고 한다. >$\mathbf{Ax=} \l

2023년 3월 21일
·
0개의 댓글
·
post-thumbnail

고윳값과 고유벡터 (Eigenvalue & Eigenvector)

선형 변환을 바라보는 다른 시각 우리가 선형대수를 공부하는 이유는 연립 일차 방정식을 풀기 위함이고 이를 위해 행렬과 벡터를 공부한다. 이때 우리가 공부하는 행렬을 선형변환이라고 부른다. "선형"이라는 말전에 변환은 또 뭐야? 쉽게 말해서 함수라는 말이다. 우리가 벡터에 행렬을 곱하는 $Ax=y$에서 A를 "벡터 x를 벡터y로 mapping하는 함수"라고 바라볼 수 있다. 쉽게 말해 행렬은 벡터를 변환시켜 다른 벡터를 출력해준다. "선형 변환"은 이런 함수 중에서 아래의 조건을 만족하면 "선형변환"이라고 부른다. 임의의 벡터 u,v에 대하여 다음의 수식을 만족하면 변환행렬 A를 선형변환이라고 부른다.(alpha beta는 scalar) $A(\alpha u+\beta v)

2023년 1월 27일
·
0개의 댓글
·
post-thumbnail

[Linear Algebra] Eigenvalue & Eigenvector

Eigenvalue & Eigenvector Properties of Eigenvalue & Eigenvector

2022년 6월 22일
·
0개의 댓글
·

Eigenvalue & Eigenvector

✍️ Vector transformation > * 2차원 공간에서의 벡터변환, 즉 선형 변환은 임의의 두 벡터를 더하거나 혹은 스칼라 값을 곱하는 것을 의미한다. > - 임의의 두 벡터 더해서 방향 바꾸기: $T(u+v) = T(u)+T(v)$ 스칼라 값을 곱해서 크기 바꾸기: $T(cu)=cT(u)$ 한 점을 한 벡터 공간에서 다른 벡터 공간으로 이동시키는 이동 규칙을 정의하는 함수이다. transformation은 matrix를 곱하는 것을 통해 벡터(데이터)를 다른 위치로 옮긴다라는 의미를 가지고 있다. Matrix와 Vector의 곱으로 표현 2차원 평면 상의 모든 벡터는 기저벡터의 선형결합으로 표현된다. 임의의 벡터에 대한 변환이 이루어지면 이 벡터를 구성하는 기저벡터도 함께

2022년 4월 13일
·
0개의 댓글
·

[선형대수학] 고윳값 분해

1. 고유값과 고유벡터 > v와 방향이 같은 벡터는 모두 고유 벡터가 된다 => A(cv)=cAv=cλv=λ(cv) +) 고유벡터를 표시할 때, 길이가 1인 단위벡터가 되도록 정규화함 2. 특성방정식(characteristic equaion) > 고유값, 고유벡터는 구하는 방법은? => 특성방정식을 이용해서 고유값, 고유벡터 순서로 구함 ![](https://images.velog.io/images/brenda_ryu/post/9d0ae3c4-63aa-48bc-9c

2022년 2월 8일
·
0개의 댓글
·
post-thumbnail

High dimensional data

Vector transformation $f(\begin{bmatrix}x1 \\ x2 \end{bmatrix}) = \begin{bmatrix} 2x1 + x2 \\ x1 -3x2 \\ \end{bmatrix}$ 유닛벡터를 이용하여 $x1 \cdot \hat{i} + x2 \cdot \hat{j}$ 으로 분리 가능 $T = \begin{bmatrix} 2 & 1 \\ 1 & -3 \end{bmatrix}$ 고유벡터 (Eigenvector) transformation에 영향을 받지 않는 회전축 (혹은 벡터)을 공간의 고유벡터 (Eigenvector) 고유값 (Eigenvalue) 유벡터는 주어진 transformation에 대해서 크기만 변하고 방향은 변화 하지 않는 벡터입니다. 여기서 변화하는 크기는 결국 스칼라 값으로 변화 할 수 밖에 없는데 이 특정 스칼라 값을 고유값 (eigenvalue) Principal Component Anal

2021년 12월 18일
·
0개의 댓글
·
post-thumbnail

[Linear Algebra] (python) Eigenvalue, Eigenvector, PCA

🧩 High Dimensional Data 📌 Eigenvalue, Eigenvector Eigenvalue와 Eigenvector를 사람에 투영하여 설명한다면 Eigenvalue = 외형(살이 찌거나 빠지거나, 피부가 그을리는 등) Eigenvector = 그사람 그 자체(다이어트를 한다고 해서 사람 자체가 바뀌지는 않음) 그래서 PCA는 Eigenvector를 축으로 하며, Eigenvalue가 가장 커지는 쪽을 정하여 실행한다. (데이터의 특성을 가장 잘 반영하므로) Eigenvector를 축

2021년 10월 2일
·
0개의 댓글
·

[인사이드 머신러닝] EVD 없이 Eigenvalue 찾기: Power Iteration (Power Method)

Preliminaries 크기가 $n \times n$인 임의의 행렬 $\mathbf{A}$에 고유값 분해(Eigenvalue Decomposition, EVD)를 적용하면 다음과 같은 관계식을 얻을 수 있다. $$ \tag{1} \mathbf{A} = \mathbf{Q}\Lambda \mathbf{Q}^T $$ $\mathbf{Q}$의 $i$번째 column은 $i$번째 right eigenvector1 $\mathbf{q}i$이고, 대각행렬 $\mathbf{\Lambda}$의 $i$번째 대각성분은 $i$번째 eigenvalue $\lambdai$이다. $$ \tag{2} \mathbf{A}\mathbf{q}i = \lambdai \mathbf{q}_i $$ $\mathbf{A}$의 eigenvector들은 basis vector이므로 임의의 벡터 $\mathbf{v}$를 다음과 같이 $\mathbf{

2021년 9월 27일
·
0개의 댓글
·
post-thumbnail

[AI Bootcamp] N133 - Dimensionality Reduction

Session Review Vector Transformation 벡터의 변환(선형 변환) = 임의의 두 벡터를 더하기 하거나 스칼라 곱 하는 것 ❓ 벡터가 변형된다는 것이 어떤 의미? 벡터(데이터)를 다른 위치로 옮긴다는 의미 고유벡터(Eigenvection) transformaton에 영향을 받지 않는 회전축 (혹은 벡터) -> 공간의 고유벡터 -> 크기만 변하고 방향은 변화하지 않음 e.g. x,y축 위에 있는 벡터, diagonal vectors 즉, 변형해도 span위에 있는 벡터들 (회전하거나 하지 않음) 👀 diagonal matrix: 모든 기저 벡터는 고유 벡터이고, 대각선의 값이 고유값이 됨 ❗️고유벡터가 왜 중요해? 벡터를 변환할 때, 어떠한 기준을 가지고 변환해야 하는가를 볼 때, 고유벡터가 변하지 않는 하나의 축이 될 수 있음 고유값 (Eigenvalue) 고유벡터는 크기만 변화하는데 이 때,

2021년 8월 9일
·
0개의 댓글
·

Eigenvalue, Eigenvector, PCA

학습내용 Vector transformation 선형변환 : 임의의 두 벡터를 더하거나 스칼라 값을 곱하는 것을 의미 행렬의 곱을 벡터의 변환 측면에서 바라보는 습관을 길러보자 그림출처 : https://angeloyeo.github.io/2019/07/27/PCA.html 위의 그림과 같이 국어와 영어 점수를 직선 위의 점으로 변환시키는 과정도 선형 변환이라고 할 수 있음 Eigenvector transformation에 영향을 받지 않는 축(주축), 즉 주어진 transformation에 대해서 크기만 변하고 방향은 변화하지 않는 벡터 Eigenvalue 고유벡터가 변화하는 스칼라 값 PCA feature를 줄여 overfitting을 막기 위한 방법 핵심 원리 :

2021년 3월 22일
·
0개의 댓글
·