단점 : 계산이 많다. -> Quasi-Newton method로 hessian을 근사하기!
Quasi-Newton's flow
optimal solution을 위한 초기값 설정
gradient (1차미분) 계산
Hessian (2차미분) 근사
근사한 Hessian으로 solution update
iteration (위의 step 반복)
Quasi-Newton
장점
computational 복잡도 감소
빠른 convergence (for ill-condition)
initial guess에 less sensitive함
단점
hessian 정확도 감소
특정 문제에서 느린 convergence (IK의 경우 아크로바틱한 문제에서 어려움을 겪음)
Basics
1. Ill-conditioned problem
hessian의 condition number가 너무 커서 optimization이 어려운 상황
condition number of matrix : 가장 큰 eigen value와 가장 작은 eigen value간의 비율
-> eigen value 간의 차이가 너무 클때
-> 수렴치가 한 축으로만 쏠리는 현상 발생 (numerical unstable)
Ill-condition의 원인
poor scaling of varialbles
high-dimensional problem (파라메터가 너무 많을 때)
objective function 자체의 문제
해결 방안
appropriate variable scaling
preconditioning
use optimization algorithm
2. Definite Matrix
의미
Positive, negative, indefinite 한 지 미리 구별하는 방법
objective function의 curvature를 알 수 있다.
-> convergence and stability 파악 가능
구하는 방법 x의 transpose : xT, n-dimensional zero-vector : 0
n x n symmetic real matrix M에 대하여
Positive-definite : xTMx>0
Positive-semidefinite, non-negative-definite : xTMx≥0
negative-definite : xTMx<0
negative-semidefinite, non-positive-definite : xTMx≤0
개념
Hessian Matrix of function 이 점 p에서 positive definite한 경우 그 function은 p근처에서 convex 하다
-> iterative 하면 해를 찾을 수 있다는 의미!
특징
positive-definite matrix
1) all positive eigen value
2) invertible
3) symmmetric
4) convex / unique global minimum -> converge to unique point
negative-definite matrix
1) all negative eigen value
2) invertible
3) symmetric
4) concave / unique global maximum -> converge to unique point
indefinite matrix
1) negative and positive eigen value
2) symmetric (real matrix)
3. Secant Method
개념
1차 미분을 구하기 어려울 때, 1차 미분의 유사값을 찾는 방법
root finding algorithm (Newton-method 랑 유사한 방식)
이전의 두 점을 가지고 미분 값을 찾는 방법 f′(x)≈ΔxΔy=(x+Δ)−xf(x+Δ)−f(x) 에서 ≈가 secant method의 의미
4. Frobenius norm (Euclidean norm)
개념
matrix의 size를 구하기 위한 matrix norm
정의 ∣∣A∣∣F=∑i=1m∑j=1n∣aij∣2
특징
trace property와 관련이 있다.
trace property : matrix의 diagonal을 더한 값
trace of square matrix A : tr(A)
conjugate transpose of A : AH
squared Frobenius norm을 다시 정의하면 ∣∣A∣∣F=tr(AAH) (real matrix에서는 AH=AT)
5. Lagrane Multiplier
개념
제한이 걸려있는 상황에서 최적화 문제를 푸는 방법
그림에서
f(x,y) 가 objective function
g(x,y) 가 constraint
f(x,y)=d1이 제한 상황에서 maximum 구한 것
수식
Lagrange function : L(x,y,λ)
L(x,y,λ)=f(x,y)+λg(x,y)
-> λ가 Larange multiplier
위의 식을 편미분 하고 각 식들이 0이 되는 값을 연립해서 풀기
Quasi-Newton Method
목표
scalar-valued function의 minimum or maximum 을 구하기
= search for zero of the gradient of that function
수식 J[∇f(x)]=H[f(x)] (g=∇f)
Newton method에서의 문제 : θn+1=θn−HF(θn)∇F(θn)
-> Hessian을 쉽게 푸는 것이 목적!
Immerse yourself in the vibrant mosaic of fun and fellowship, where every click of your mouse heralds a new chapter in the saga of endless excitement. Explore the dynamic space where the thrill of play intertwines seamlessly with the ㅤ joy of forging meaningful connections, and let the digital landscapes resonate with the eternal symphony of excitement that defines this vibrant community
Immerse yourself in the vibrant mosaic of fun and fellowship, where every click of your mouse heralds a new chapter in the saga of endless excitement. Explore the dynamic space where the thrill of play intertwines seamlessly with the ㅤ joy of forging meaningful connections, and let the digital landscapes resonate with the eternal symphony of excitement that defines this vibrant community