인공지능 수학 정리
해당 내용들은 수학자와 함께하는 인공지능 수학 with 파이썬의 1~4장 내용의 일부를 정리한 것 입니다. 어느정도 짚고 넘어갈만한 내용들만 뽑아서 정리를 해보았습니다.
가우스-조르당 소거법 (Gauss-Jordan Elimination)
가우스-조르당 소거법은 연립방정식을 푸는 과정으로, 행렬을 '완전 가우스 소거형 (Reduced Row Echelon Form, RREF)'으로 만든다.
핵심 과정
- 피벗(1)을 만든다.
- 피벗 열의 다른 요소를 0으로 만든다.
- 해를 쉽게 읽을 수 있다.
간단한 예시
⎣⎢⎡12−123−1−112∣∣∣37−1⎦⎥⎤⟶⎣⎢⎡100010001∣∣∣xyz⎦⎥⎤
차원 (Dimension)
차원이란, 벡터공간을 표현하는 데 필요한 기저벡터의 수를 의미한다.
- 2차원 공간 → 기저 2개
- 3차원 공간 → 기저 3개
수식
Dimension=Number of Basis Vectors
선형독립성 (Linear Independence)
벡터 집합이 선형독립이라면, 어떤 벡터도 다른 벡터들의 선형결합으로 표현할 수 없다.
수학적으로는:
c1v1+c2v2+⋯+cnvn=0
이 방정식을 만족하는 유일한 해가
c1=c2=⋯=cn=0
이면 선형독립이다.
그림
- 독립: 서로 다른 방향
- 종속: 같은 직선 위에 존재
기저 (Basis)
기저는 벡터공간을 생성할 수 있는 최소한의 선형독립 벡터 집합이다. 모든 벡터는 이 기저벡터들의 선형 결합으로 표현된다.
간단하게 말하자면 벡터공간의 기준(x,y 축 같은)이라고 보면 된다. 기저 끼리는 선형독립이다.
예시
2차원 공간의 기저:
e1=(1,0),e2=(0,1)
모든 ((x,y))는 다음처럼 표현할 수 있다:
xe1+ye2
벡터의 내적 (Dot Product)
벡터의 내적은 두 벡터 사이의 방향성과 크기 관계를 나타내는 연산이다. 두 벡터 a, b에 대해,
a⋅b=∥a∥∥b∥cosθ
또는 좌표로 표현하면,
a⋅b=a1b1+a2b2+⋯+anbn
성질
- a⋅b=0 → 두 벡터는 직교(orthogonal)
벡터의 미분 (Vector Derivative)
벡터에 대해 미분을 수행하면, 각 원소별로 미분한 벡터나 행렬이 된다. 예를 들어, 스칼라 함수 ( f(\mathbf{x}) )에 대해,
∂x∂f=⎣⎢⎢⎢⎢⎢⎡∂x1∂f∂x2∂f⋮∂xn∂f⎦⎥⎥⎥⎥⎥⎤
이를 그라디언트(Gradient) 라고 부른다.
선형변환은 벡터공간에서 벡터공간으로 가는 선형 연산이다. 선형변환 T은 다음 두 가지 성질을 만족해야 한다:
- 덧셈 보존: T(u+v)=T(u)+T(v)
- 스칼라배 보존: T(cv)=cT(v)
수식
V와 W는 (같거나 다른) 벡터공간이다.
표준행렬 (Standard Matrix)
선형변환 T은 항상 하나의 행렬 A로 표현될 수 있다. 즉, 임의의 벡터 x에 대해
T(x)=Ax
이때 이 A를 표준행렬이라 한다.
표준행렬 만드는 법
- 기저벡터들을 변환한 결과를 열로 모아 행렬을 만든다.
직교연산자 (Orthogonal Operator)
직교연산자는 길이를 보존하고, 각도를 보존하는 선형변환이다. 즉, 어떤 벡터 v에 대해 변환을 적용해도,
∥T(v)∥=∥v∥
이다.
조건
표준행렬 Q가 직교행렬이려면:
(Q⊤는 Q의 전치행렬, I는 항등행렬)
기하학적 의미
- 회전 (rotation)
- 대칭 (reflection)
- (길이를 변형하지 않는 변환)
중간정리
책에 나오는 개념들을 리마인드 한다는 느낌으로 정리를 해보고 있는데 아직 인공지능과 구체적인 관계성은 잘모르겠다. 우선 각 개념들의 의미를 충분히 파악을 해두려고 한다.