[NLP] 머신 러닝 - (3) 선형 회귀(Linear Regression)

김규리·2022년 7월 9일
0

NLP

목록 보기
25/33
post-thumbnail

1. 선형 회귀(Linear Regression)

한 개 이상의 독립 변수 x와 y의 선형 관계를 모델링

1) 단순 선형 회귀 분석(Simple Linear Regression Analysis)

y = wx + b
  • w: 가중치(weight), 직선의 기울기
  • b: 편향(bias), 절편

2) 다중 선형 회귀 분석(Multiple Linear Regression Analysis)

y = w_1x_1 + w_2x_2 + ... w_nx_n + b

2. 가설(Hypothesis) 세우기

  • 가설: x와 y의 관계를 유추하기 위해서 수학적으로 식을 세우는 것
    (선형 회귀에서는 적절한 w와 b를 찾아내야 함)

3. 비용 함수(Cost function): 평균 제곱 오차(MSE)

머신 러닝: w와 b를 찾기 위해서 실제값과 가설로부터 얻은 예측값의 오차를 계산하는 식을 세우고, 이 식의 값을 최소화하는 최적의 w와 b를 찾아냄

  • 목적 함수(Objective function) or 비용 함수(Cost function) or 손실 함수(Loss function): 실제값과 예측값에 대한 오차에 대한 식 (오차 최소화)
  • 평균 제곱 오차(Mean Squared Error, MSE): 회귀 문제의 대표적인 비용 함수

4. 옵티마이저(Optimizer): 경사하강법(Gradient Descent)

  • 옵티마이저(Optimizer) or 최적화 알고리즘: 비용 함수를 최소화하는 매개 변수인 w와 b를 찾기 위한 알고리즘 (머신 러닝에서 훈련 또는 학습이라고 부름)
  • 경사 하강법(Gradient Descent): 가장 기본적인 옵티마이저 알고리즘
    비용 함수(Cost function)를 미분하여 현재 w에서의 접선의 기울기를 구하고, 접선의 기울기가 낮은 방향으로 w의 값을 변경하고 다시 미분하고 이 과정을 접선의 기울기가 0인 곳을 향해 w의 값을 변경하는 작업을 반복
  • a: 학습률(learning rate), w의 값을 변경할 때 얼마나 크게 변경할지를 결정하며 0과 1사이의 값을 가지도록 함
profile
connecting the dots

0개의 댓글