모두를 위한 Deep Learning 3

김동현·2022년 9월 16일
0
post-thumbnail

📌 MC. Lec 04- Muiti variable linear regression *(new)


  1. Hypothesis: 기본이 되는 가설 / "어떻게 예측할 것인가?"
  2. Cost function: 가설이 제대로 설정된 것인지 확인
  3. Gradient descent algorithm: cost가 최적화 된 것인지 확인할 수 있음

*학습 값이 1개인 경우,
: H(x) = W(x) + b

**학습 값이 3개인 경우,
: H(x1, x2, x3) = w1x1 + w2x2 + w3x3 + b

cost function을 계산해야 한다.
왜? 예측값과 실제값의 비교이기 때문이다.

수가 많아지면, 언제까지나 계산을 늘릴 수 없으므로 "Matrix"가 활용된다.
Matrix = 행렬

3       0       2                          1열,1행의 숫자 = 3
9       3       17                        1열,2행의 숫자 = 9

예제 1번.
A = 3      0      2
       9      3      17

B = 1      3
       5      6

** A + B = ?
    계산할 수 없다.
    왜? A는 3열이지만, B는 2열이기 때문에, 같은 "열"끼리만 계산할 수 있다.

 
예제 2번.
[5,3]         [3,1]    인 경우,
    
[5,1]로 계산할 수 있다.




📌 ML. Lab 04-1: Muiti variable linear regression을 Tensorflow에서 구현하기 (new)


X1X2X3Y
738075152
938893185
899190180
9698100196
736670142

"X1, X2, X3" 을 기반으로 Y값 예측하기!
Xn에서 n의 값이 많을수록 정확하게 Y값을 도출할 수 있다.


profile
과거 기록은 아래 티스토리에 있습니다. 참고해주세요:)

0개의 댓글