22.10.12(수) Today I Learned

정형빈·2022년 10월 12일
0

TIL

목록 보기
26/71

10/12 오늘의 시간표

09:00 ~ 10:00 [원격] 실전 머신러닝 적용
10:00 ~ 11:00 [원격] 실전 머신러닝 적용
11:00 ~ 12:00 [원격] 실전 머신러닝 적용
12:00 ~ 13:00 [원격] 실전 머신러닝 적용
13:00 ~ 14:00 점심식사
14:00 ~ 15:00 [특강] 머신러닝 특강
15:00 ~ 16:00 [원격] 실전 머신러닝 적용
16:00 ~ 17:00 [원격] 실전 머신러닝 적용
17:00 ~ 18:00 [원격] 실전 머신러닝 적용
18:00 ~ 19:00 저녁식사
19:00 ~ 20:00 [원격] 실전 머신러닝 적용
20:00 ~ 21:00 [원격] 실전 머신러닝 적용

실전 머신러닝 적용 원격강의 3일차이다. 오늘은 거기에 머신러닝특강이 한시간 포함되어있었다.

머신러닝 적용 원격 강의

- 3주차

  • 딥러닝이란?

    • 머신 러닝의 한 분야로 학습 과정 동안 인공 신경망으로서 예시 데이터에서 얻은 일반적인 규칙을 독립적으로 구축(훈련)하는 것이다.
  • 딥러닝의 다양한 개념과 기법

    • 배치 사이즈와 에폭

    • 활성화 함수

    • 과적합과 과소적합

    • 데이터 증강

    • 드랍아웃

    • 앙상블

    • 학습률 조정

  • 딥러닝의 역사

    • 딥러닝의 태동을 불러온 XOR 문제

    • 딥러닝의 발전을 가져온 아이디어인 역전파

  • 딥러닝의 주요 개념

    • batch size(배치 사이즈) : 전체 트레이닝 데이터 셋을 여러 작은 그룹을 나누었을 때 하나의 소그룹에 속하는 데이터 수

    • epoch(에폭) : 전체 트레이닝 셋이 신경망을 통과한 횟수 의미

    • iteration(이터레이션) : 1-epoch를 마치는데 필요한 미니배치 갯수 혹은 1-epoch를 마치는데 필요한 파라미터 업데이트 횟수

    • Activation Function(활성화 함수) : 입력 신호의 총합을 출력신호로 변환하는 함수

    • 과적합(Overfitting) : 모델이 훈련데이터에만 특수한 성질을 과하게 학습해 일반화를 못해 결국 테스트데이터에서 오차가 커지는 현상

    • 과소적합(Underfitting) : 훈련데이터에 과적합도 못하고 일반화 성질도 학습하지 못해, 훈련/테스트 데이터 모두에서 오차가 크게 나오는 경우

  • 딥러닝의 주요 스킬

    • Data augmentation(데이터 증강기법) : 갖고 있는 데이터셋을 여러 가지 방법으로 증강하여 실질적인 학습 데이터셋의 규모를 키울 수 있는 방법

    • Dropout(드랍아웃) : 서로 연결된 연결망에서 0부터 1 사이의 확률로 뉴런을 제거하는 기법

    • Ensemble(앙상블) : 여러 개의 분류기를 생성하고, 그 예측을 결합함으로써 보다 정확한 예측을 도출하는 기법

    • Learning rate decay(Learning rate schedules) : 딥 러닝 신경망이 확률적 경사 하강법 최적화 알고리즘을 사용하여 훈련하는데서 나온 파라미터

이후로는 colab과 kaggle을 이용한 실습이 진행되었다.

머신러닝 특강

- 이상호 튜터님

이상호 튜터님의 특강을 받는 것은 이번이 처음인 것 같다.
원할한 사물인식 프로젝트를 위해 사물인식 알고리즘을 활용해서 사물인식 하는법과 컴퓨터가 이미지를 어떻게 이해하는지에 대한 설명을 해주시고 사물인식 학습을 지정된 프로세스를 통해 직접 따라하며 실습해보았다.

오늘 하루를 마치며

점점 이론적으로 많은 것을 배우고 있지만 이해는 안되고 계속 머리에 들어오기만 하는 것이 이삿짐 박스가 쌓이기만 하고 정리는 안해두는 느낌이다. 1차적으로 머신러닝의 개념을 한번 이해만 하고 직접 보고 따라하면서 코드 사용만 익히고 복습과 재복습을 통해 몇번 더 해봐야 개념이해가 어느정도 될 것 같다.

profile
스파르타 내일배움캠프 3기 수강생 정형빈

0개의 댓글