[CH5-1] Norms

조현진·2023년 3월 17일
0

공업수학

목록 보기
6/8

Norms

Definition

vector space VV 상에서의 함수 혹은 연산 값을 norm이라고 한다.

그 함수 혹은 연산은 :VR\left\vert\left\vert \cdot\right\vert\right\vert : V\rightarrow\mathbb{R} 와 같이 연산된 값이 하나의 스칼라 값으로 나타나게 된다.

즉, 간단히 설명하자면 vector x\mathbf{x}의 길이는 norm으로 표현되고, xR\left\vert\left\vert \mathbf{x}\right\vert\right\vert \in \mathbb{R}로 나타낼 수 있다.

Conditions

  • Homogeneous : λx=λx\lVert\lambda\mathbf{x} \rVert = \left\vert \lambda \right\vert\lVert\mathbf{x} \rVert
    벡터에 스칼라 값을 곱한 것을 norm을 취하나, norm을 취한 벡터에 스칼라 값을 곱하나 결과는 같다.

  • Triangle inequality : x+yx+y\lVert \mathbf{x+y}\rVert\le\lVert \mathbf{x}\rVert +\lVert \mathbf{y}\rVert

  • Positive Definite : x0\lVert \mathbf{x}\rVert\ge0 그리고, x=0\lVert \mathbf{x}\rVert= 0이라고 함은, x=0\mathbf{x}=0일 때를 의미한다.
    (앞으로 나올 부등호에서 0을 포함한 것은 중요한 포인트이다. x=0을 만족해야만 한다.)

다양한 Norms

General form으로 P-norm이라고 지칭한다.

  • notation : xpi=1nxipp\lVert\mathbf{x_p}\rVert\equiv\sqrt[p]{\sum_{i=1}^nx_i^p}

Manhattan Norm(L1-norm)

x1i=1nxi\lVert\mathbf{x_1}\rVert\equiv\sum_{i=1}^n\left\vert x_i\right\vert

Euclidean Norm(L2-norm)

xpi=1nxi2=xTx\lVert\mathbf{x_p}\rVert\equiv\sqrt{\sum_{i=1}^nx_i^2}=\sqrt{\mathbf{x^T}\mathbf{x}}

이후에는 학습적으로 L2-norm을 "norm"이라고 간주한다.(단, 논문이나 기타 공식적인 문서를 예외다. 정확히 무슨 norm인지 표시해줘야 한다.)

Dot Product

Definition

xyxTy=i=1nxiyi\mathbf{x\cdot y}\equiv\mathbf{x^T\cdot y}=\sum_{i=1}^nx_iy_i

즉, 스칼라 곱이라고 생각하면 쉽다. 두 벡터의 곱이 하나의 스칼라 값이 나온다. 앞으로는 세 번째 수식이 아닌 두 번째 수식에 익숙해져야 한다.

Dot Product \neq Inner Product(내적)

사실, Dot Product \in (General) Inner Product 관계이다.

Bilinear mapping

Definition

두개의 arguments(벡터)를 받아서 출력(매핑)시키는 것을 뜻한다.(i.e. Ω(x,y)\mathbf\Omega(x,y))

Conditions

두 가지 조건을 모두 만족해야 한다.

  • Ω(λx+ψy,z)=λΩ(x,z)+ψΩ(y,z)\mathbf{\Omega(\lambda x+\psi y,z)=\lambda\Omega(x,z)+\psi\Omega(y,z)}
    '스칼라를 곱하고 더한 것'의 매핑과 '매핑하고 스칼라를 곱하고 더한 것'의 값이 같아야 한다.
  • Ω(x,λy+ψz)=λΩ(x,y)+ψΩ(x,z)\mathbf{\Omega( x,\lambda y+\psi z)=\lambda\Omega(x,y)+\psi\Omega(x,z)}
    Bilinear하므로 뒤에서 한 것의 값도 같아야 한다.

Symmetric & Positive Definite

Bilinear mapping이 특정 조건을 만족할 경우, 어떠한 특성을 가지고 있는 Bilinear mapping이라고 설명할 수 있다.

단, Bilinear mapping을 V\mathbf{V}XVR\mathbf{V}\rightarrow\mathbb{R} 인 경우로 한정한다. 즉 두 벡터 스페이스에서 각각의 벡터를 뽑아서 연산했을 때, 하나의 스칼라 값이 나오는 경우로 한정 짓는다.

  • Bilinear mapping이 Symmetric하다
    (Ω\Omega is "Symmetric")고 표현되려면,
    If Ω(x,y)=Ω(y,x)\mathbf{\Omega(x,y)=\Omega(y,x)} for all x,yV\mathbf{x,y}\in\mathbf{V}

i.e.) 내적 xy=yxx\cdot y=y\cdot x

  • Bilinear mapping이 Positive Definite하다(Ω\Omega is "Positive Definite")고 표현되려면,
    If xV{0}:Ω(x,x)>0\forall\mathbf{x}\in\mathbf{V}-\{0\}: \mathbf{\Omega(x,x)>0} and Ω(0,0)=0\mathbf{\Omega(0,0)=0}
    전체 벡터 스페이스에서 0이 제외되었을 때는 Bilinear mapping 값이 0보다 클 때, 그리고 (0,0)의 Bilinear mapping이 0일 때
    (즉, 0을 제외해서는 결과 값이 0이 되면 안되고 0일 경우에는 결과 값이 0이 될 때)

General Inner Product

Definition

Positive definite 하고 Symmetric한 bilinear mapping을 의미한다.

Notation : <x,y>\mathbf{<x,y>}
i.e : 내적

Inner Product Space

(V,<,>)\mathbf(V,<\cdot,\cdot>)의 페어를 의미한다 <>는 연산을 의미한다.
i.e : V\mathbf{V}Rn\mathbb{R}^n이고, <>이 dot product라면,
이 때의 Inner Product Space를 'Uclidean vector space'라고 한다.

Inner Product이지만 Dot Product가 아닌 경우

Example

V=R2\mathbf{V}=\mathbb{R^2}
<x,y>x1y1(x1y2+x2y1)+2x2y2R\mathbf{<x,y>}\equiv x_1y_1-(x_1y_2+x_2y_1)+2x_2y_2 \in \mathbb{R}

만약 Dot Product라면 x1y1+x2y2x_1y_1+x_2y_2 형식을 띄게 된다.

1) Bilinear Mapping인가? Yes
V\because \mathbf{V} X VR\mathbf{V}\rightarrow \mathbb{R}

2) Symmetric한 B.M 인가? Yes
x1y1(x1y2+x2y1)+2x2y2=y1x1(y1x2+y2x1)+2y2x2    <x,y>=<y,x>\because x_1y_1-(x_1y_2+x_2y_1)+2x_2y_2= y_1x_1-(y_1x_2+y_2x_1)+2y_2x_2 \iff \mathbf{<x,y>=<y,x>}

3) Positive Definite한 B.M 인가? Yes

<0,0>=0<x,x>\because \mathbf{<0,0>}=0 \\ \mathbf{<x,x>} > 0 (V{0})(\mathbf{V}-\{0\})
x1,x2x_1, x_2를 넣어보고 식을 정리하면 아래 식을 얻을 수 있고 0보다 크다는 것을 알 수 있다.

(x1x2)2+x2>0(x_1-x_2)^2+x^2 >0

Derivation of Matrix of Inner Product

Inner product를 매트릭스의 형태로 변형시키는 과정을 알아보자.

inner product : Symmetric & Positive Definite

ordered basis B = b1,,bnb_1, \cdots, b_n

basis의 linear combination으로 벡터 스페이스 상의 모든 벡터를 표시할 수 있고

ψ,λ\psi, \lambda를 coordinate로 표시할 수 있다. (Coordinate with respect to Basis)
x=[ψ1,,ψn]T\mathbf{x^{'}}=[\psi_1,\cdots,\psi_n]^T
y=[λ1,,λn]T\mathbf{y^{'}}=[\lambda_1,\cdots,\lambda_n]^T

inner product의 bilinearity를 사용한다면,

<x,y>=<i=1nψibi,i=1nλibi>=i=1ni=1nψi<bi,bj>λj=xTAyR<x,y>=<\sum_{i=1}^n\psi_i\mathbf{b}_i,\sum_{i=1}^n\lambda_i\mathbf{b}_i>=\sum_{i=1}^n\sum_{i=1}^n\psi_i<\mathbf{b_i,b_j}>\lambda_j = \mathbf{x^{'T}Ay^{'}} \in \mathbb{R}

Aij<bi,bj>A_{ij}\equiv<b_i,b_j>

A는 basis에 대해서 i,j에 element를 갖는 스칼라로 구성된 매트릭스가 된다.

basis만 존재한다면, 벡터 스페이스에서 추출한 모든 벡터에 대해 A 매트릭스 하나만으로 inner product를 계산할 수 있게 되는 것이다.

Symmetric & Positive Definite Matrix

Aij<bi,bj>A_{ij} \equiv <\mathbf{b_i,b_j}>

Properties

  • Symmetric Matrix
    Aij=<bi,bj>=<bj,bi>=Aji\because A_{ij}=<b_i,b_j>=<b_j,b_i>=A_{ji}

  • Positive Definite Matrix
    x{0}:xTAx>0\forall \mathbf{x}-\{0\}: \mathbf{x^TAx}>0

  • Null space of A (R)(\in \mathbb{R})는 오직 0으로만 구성되어 있다.
    xTAx>0 (x0)\mathbf{x^TAx}>0 \ (\forall \mathbf{x}\neq0)
    null space는 기본적으로 Ax=0A\mathbf{x}=0성립하는 x의 non trivial solution을 찾아야 한다. x가 0이 아니면 식이 성립을 안하기 때문에
    Null space는 x=0인 trivial solution 외의 값은 존재할 수 없다는 의미.

  • AA의 Diagonal element는 0보다 크다(positive)

Additional(If possible,)

  • Positive Semi-definite Matrix
    x{0}:xTAx0\forall \mathbf{x}-\{0\}: \mathbf{x^TAx}\ge0

Lengths and Distances

  • Norm & Inner product
    x<x,x>\lVert \mathbf{x}\rVert\equiv\sqrt{<\mathbf{x,x}>}
    Norm = Inner product에 square(루트)를 씌운 것. (length)

  • Cauchy-Schwarz Inequality
    <x,y>xy|\mathbf{<x,y>}|\le\lVert\mathbf{x}\rVert\lVert\mathbf{y}\rVert

  • Distance
    두 점 간의 norm 형태

profile
Memory Vision

0개의 댓글