" Forward Propagation -> Backward Propagation -> gradient descent " 과정의 반복 1. Forward Propagation 2. Backward Propagation 1. Cost function  Training data로부터 base classifier을 조합을 형성하고(2) 각 base classifier로부터 만들어진 예측을 가지고 투표를 진행해 결과를 냄※ 주의할 것각 base cl
(1) 데이터셋으로부터 반복적으로 샘플 추출(2) 각 bootstrap 샘플에 대해 base classifier를 학습(3) test data를 활용하여 전체 base classifier를 예측(4) 전체 base classifier의 예측값 중 다수결로 결과를 채택복
: decision tree를 여러 개 랜덤하게 사용하여 만든 것\-> 어떻게 랜덤하게 decision tree를 여러 개 만드느냐가 포인트 !bagging과 동일하게 샘플링splitting feature를 잡을 때, p개의 feature를 랜덤하게 먼저 뽑고 그 중에