로보틱스 기초 지식

BERT·2023년 4월 16일
1

State estimation

  • Uncertainty
  • Probability & Statistics

Probability

Discrete random variable

X=randomvariableX=random variable
X=x1,x2,x3...xnX= {x_1, x_2, x_3 ... x_n}
P(X=xi)=P(xi)P(X=x_i)=P(x_i)

Continuous random variable

PDF
abp(x)dx\int_a^bp(x)dx

Joint and Conditional probability

X, Y independent
P(x,y)=P(x)P(y)P(x,y)=P(x)P(y)
P(xy)=P(x)P(x|y)=P(x)

Bayes rule

P(xy)=P(yx)P(x)P(y)=likelihoodpriorevidenceP(x|y)=\frac{P(y|x)P(x)}{P(y)}=\frac{likelihood*prior}{evidence}

SLAM
P(xy)P(x|y) 센서의 값이 주어졌을 때 로봇의 위치를 표현하는 확률분포를 구하기
P(y)P(y) 현재 프레임에서 취득한 센서의 값
P(x)P(x) 지난 프레임에서의 로봇의 위치
P(yx)P(y|x) 현재 로봇의 위치에서 취득한 센서 값이 나올 확률

Linear Algebra

Vector and Matrices

맵핑이란?

하나의 객체에서 다른 객체로의 변환 관계

행렬의 벡터곱이란?

열인 weight값들을 벡터에 곱하는 것

회전 예시
[010100001]\begin{bmatrix} 0 & -1 & 0\\ 1 & 0 & 0\\ 0 & 0 & 1 \end{bmatrix}[xygrayscale]\begin{bmatrix} x \\ y \\ grayscale \end{bmatrix}=[yxgrayscale]\begin{bmatrix} -y \\ x \\ grayscale \end{bmatrix}

The Geometry of Least Squares

Linear regression

Optimization way
yi=β0+β1xi+eiy_i=\beta_0+\beta_1x_i+e_i
Σi=13(yi(β0^+xiβ1^))2\Sigma_{i=1}^3(y_i-(\hat{\beta_0}+x_i\hat{\beta_1}))^2
Geometric way
XT(yXβ^)=0X^T(y-X\hat{\beta})=0
(XTX)1XTy=β^(X^TX)^{-1}X^Ty=\hat{\beta}

Singular Value Decomposition

A=USVTA=USV^T

0개의 댓글