corone_hi.log
로그인
corone_hi.log
로그인
핸즈온 머신러닝 (Hands-On Machine Learning with Scikit-Learn, Keras, and Tensorflow)
아현
·
2025년 2월 25일
팔로우
1
AI
1
AI
목록 보기
19/29
[1부 머신러닝]
1장 한눈에 보는 머신러닝
1.1 머신러닝이란?
1.2 왜 머신러닝을 사용하나요?
1.3 애플리케이션 사례
1.4 머신러닝 시스템의 종류
1.4.1 훈련 지도 방식
지도 학습
비지도 학습
준비도 학습
자기 지도 학습
강화 학습
1.4.2 배치 학습과 온라인 학습
배치 학습
온라인 학습
1.4.3 사례 기반 학습과 모델 기반 학습
사례 기반 학습
모델 기반 학습
1.5 머신러닝의 주요 도전 과제
1.5.1 충분하지 않은 양의 훈련 데이터
1.5.2 대표성 없는 훈련 데이터
1.5.3 낮은 품질의 데이터
1.5.4 관련없는 특성
1.5.5 훈련 데이터 과대적합
1.5.6 훈련 데이터 과소적합
1.5.7 핵심 요약
1.6 테스트와 검증
1.6.1 하이퍼파라미터 튜닝과 모델 선택
1.6.2 데이터 불일치
연습문제
2장 머신러닝 프로젝트 처음부터 끝까지
2.1 실제 데이터로 작업하기
2.2 큰 그림 보기
2.2.1 문제 정의
2.2.2 성능 측정 지표 선택
2.2.3 가정 검사
2.3 데이터 가져오기
2.3.1 구글 코랩을 사용하여 예제 코드 실행하기
2.3.2 코드와 데이터 저장하기
2.3.3 대화식 환경의 편리함과 위험
2.3.4 책의 코드와 노트북의 코드
2.3.5 데이터 다운로드
2.3.6 데이터 구조 훑어보기
2.3.7 테스트 세트 만들기
2.4 데이터 이해를 위한 탐색과 시각화
2.4.1 지리적 데이터 시각화하기
2.4.2 상관관계 조사하기
2.4.3 특성 조합으로 실험하기
2.5 머신러닝 알고리즘을 위한 데이터 준비
2.5.1 데이터 정제
2.5.2 텍스트와 범주형 특성 다루기
2.5.3 특성 스케일과 변환
2.5.4 사용자 정의 변환기
2.5.5 변환 파이프라인
2.6 모델 선택과 훈련
2.6.1 훈련 세트에서 훈련하고 평가하기
2.6.2 교차 검증으로 평가하기
2.7 모델 미세 튜닝
2.7.1 그리드 서치
2.7.2 랜덤 서치
2.7.3 앙상블 방법
2.7.4 최상의 모델과 오차 분석
2.7.5 테스트 세트로 시스템 평가하기
2.8 론칭, 모니터링, 시스템 유지 보수
2.9 직접 해보세요!
연습문제
3장 분류
3.1 MNIST
3.2 이진 분류기 훈련
3.3 성능 측정
3.3.1 교차 검증을 사용한 정확도 측정
3.3.2 오차 행렬
3.3.3 정밀도와 재현율
3.3.4 정밀도/재현율 트레이드오프
3.3.5 ROC 곡선
3.4 다중 분류
3.5 오류 분석
3.6 다중 레이블 분류
3.7 다중 출력 분류
연습문제
4장 모델 훈련
4.1 선형 회귀
4.1.1 정규 방정식
4.1.2 계산 복잡도
4.2 경사 하강법
4.2.1 배치 경사 하강법
4.2.2 확률적 경사 하강법
4.2.3 미니배치 경사 하강법
4.3 다항 회귀
4.4 학습 곡선
4.5 규제가 있는 선형 모델
4.5.1 릿지 회귀
4.5.2 라쏘 회귀
4.5.3 엘라스틱넷
4.5.4 조기 종료
4.6 로지스틱 회귀
4.6.1 확률 추정
4.6.2 훈련과 비용 함수
4.6.3 결정 경계
4.6.4 소프트맥스 회귀
연습문제
5장 서포트 벡터 머신
5.1 선형 SVM 분류
5.1.1 소프트 마진 분류
5.2 비선형 SVM 분류
5.2.1 다항식 커널
5.2.2 유사도 특성
5.2.3 가우스 RBF 커널
5.2.4 계산 복잡도
5.3 SVM 회귀
5.4 SVM 이론
5.5 쌍대 문제
5.5.1 커널 SVM
연습문제
6장 결정 트리
6.1 결정 트리 학습과 시각화
6.2 예측
6.3 클래스 확률 추정
6.4 CART 훈련 알고리즘
6.5 계산 복잡도
6.6 지니 불순도 또는 엔트로피?
6.7 규제 매개변수
6.8 회귀
6.9 축 방향에 대한 민감성
6.10 결정 트리의 분산 문제
연습문제
7장 앙상블 학습과 랜덤 포레스트
7.1 투표 기반 분류기
7.2 배깅과 페이스팅
7.2.1 사이킷런의 배깅과 페이스팅
7.2.2 OOB 평가
7.3 랜덤 패치와 랜덤 서브스페이스
7.4 랜덤 포레스트
7.4.1 엑스트라 트리
7.4.2 특성 중요도
7.5 부스팅
7.5.1 AdaBoost
7.5.2 그레이디언트 부스팅
7.5.3 히스토그램 기반 그레이디언트 부스팅
7.6 스태킹
연습문제
8장 차원 축소
8.1 차원의 저주
8.2 차원 축소를 위한 접근법
8.2.1 투영
8.2.2 매니폴드 학습
8.3 주성분 분석
8.3.1 분산 보존
8.3.2 주성분
8.3.3 d차원으로 투영하기
8.3.4 사이킷런 사용하기
8.3.5 설명된 분산의 비율
8.3.6 적절한 차원 수 선택
8.3.7 압축을 위한 PCA
8.3.8 랜덤 PCA
8.3.9 점진적 PCA
8.4 랜덤 투영
8.5 지역 선형 임베딩
8.6 다른 차원 축소 기법
연습문제
9장 비지도 학습
9.1 군집
9.1.1 k-평균
k-평균 알고리즘
센트로이드 초기화 방법
k-평균 속도 개선과 미니배치 k-평균
최적의 클러스터 개수 찾기
9.1.2 k-평균의 한계
9.1.3 군집을 사용한 이미지 분할
9.1.4 군집을 사용한 준지도 학습
9.1.5 DBSCAN
9.1.6 다른 군집 알고리즘
9.2 가우스 혼합
9.2.1 가우스 혼합을 사용한 이상치 탐지
9.2.2 클러스터 개수 선택
9.2.3 베이즈 가우스 혼합 모델
9.2.4 이상치 탐지와 특이치 탐지를 위한 알고리즘
연습문제
[2부 신경망과 딥러닝]
(10장에서 시작함, 동일한 구조로 제목/소제목 포함)
10장 케라스를 사용한 인공 신경망 소개
10.1 생물학적 뉴런에서 인공 뉴런까지
10.1.1 생물학적 뉴런
10.1.2 뉴런을 사용한 논리 연산
10.1.3 퍼셉트론
10.1.4 다층 퍼셉트론과 역전파
10.1.5 회귀를 위한 다층 퍼셉트론
10.1.6 분류를 위한 다층 퍼셉트론
10.2 케라스로 다층 퍼셉트론 구현하기
10.2.1 시퀀셜 API로 이미지 분류기 만들기
케라스로 데이터셋 적재하기
시퀀셜 API로 모델 만들기
모델 컴파일
모델 훈련과 평가
모델로 예측 만들기
10.2.2 시퀀셜 API로 회귀용 다층 퍼셉트론 만들기
10.2.3 함수형 API로 복잡한 모델 만들기
10.2.4 서브클래싱 API로 동적 모델 만들기
10.2.5 모델 저장과 복원하기
10.2.6 콜백 사용하기
10.2.7 텐서보드로 시각화하기
10.3 신경망 하이퍼파라미터 튜닝하기
10.3.1 은닉 층 개수
10.3.2 은닉 층의 뉴런 개수
10.3.3 학습률, 배치 크기 그리고 다른 하이퍼파라미터
연습문제
11장 심층 신경망 훈련
11.1 그레이디언트 소실과 폭주 문제
11.1.1 글로럿과 He 초기화
11.1.2 고급 활성화 함수
LeakyReLU
ELU와 SELU
GELU, Swish, Mish
11.1.3 배치 정규화
케라스로 배치 정규화 구현하기
11.1.4 그레이디언트 클리핑
11.2 사전 훈련된 층 재사용하기
11.2.1 케라스를 사용한 전이 학습
11.2.2 비지도 사전 훈련
11.2.3 보조 작업에서 사전 훈련
11.3 고속 옵티마이저
11.3.1 모멘텀 최적화
11.3.2 네스테로프 가속 경사
11.3.3 AdaGrad
11.3.4 RMSProp
11.3.5 Adam
11.3.6 AdaMax
11.3.7 Nadam
11.3.8 AdamW
11.3.9 학습률 스케줄링
11.4 규제를 사용해 과대적합 피하기
11.4.1 l1과 l2 규제
11.4.2 드롭아웃
11.4.3 몬테 카를로 드롭아웃
11.4.4 맥스-노름 규제
11.5 요약 및 실용적인 가이드라인
연습문제
12장 텐서플로를 사용한 사용자 정의 모델과 훈련
12.1 텐서플로 훑어보기
12.2 넘파이처럼 텐서플로 사용하기
12.2.1 텐서와 연산
12.2.2 텐서와 넘파이
12.2.3 타입 변환
12.2.4 변수
12.2.5 다른 데이터 구조
12.3 사용자 정의 모델과 훈련 알고리즘
12.3.1 사용자 정의 손실 함수
12.3.2 사용자 정의 요소를 가진 모델을 저장하고 로드하기
12.3.3 활성화 함수, 초기화, 규제, 제한을 커스터마이징하기
12.3.4 사용자 정의 지표
12.3.5 사용자 정의 층
12.3.6 사용자 정의 모델
12.3.7 모델 구성 요소에 기반한 손실과 지표
12.3.8 자동 미분으로 그레이디언트 계산하기
12.3.9 사용자 정의 훈련 반복
12.4 텐서플로 함수와 그래프
12.4.1 오토그래프와 트레이싱
12.4.2 텐서플로 함수 사용법
연습문제
19장 대규모 텐서플로 모델 훈련과 배포
19.1 텐서플로 모델 서빙
19.1.1 텐서플로 서빙 사용하기
SavedModel로 내보내기
텐서플로 서빙 설치하고 시작하기
REST API로 TF 서빙에 쿼리하기
gRPC API로 TF 서빙에 쿼리하기
새로운 버전의 모델 배포하기
19.1.2 버텍스 AI에서 예측 서비스 만들기
19.1.3 버텍스 AI에서 배치 예측 작업 실행하기
19.2 모바일 또는 임베디드 디바이스에 모델 배포하기
19.3 웹 페이지에서 모델 실행하기
19.4 계산 속도를 높이기 위해 GPU 사용하기
19.4.1 GPU 구매하기
19.4.2 GPU RAM 관리하기
19.4.3 디바이스에 연산과 변수 할당하기
19.4.4 다중 장치에서 병렬 실행하기
19.5 다중 장치에서 모델 훈련하기
19.5.1 모델 병렬화
19.5.2 데이터 병렬화
미러드 전략을 사용한 데이터 병렬화
중앙 집중적인 파라미터를 사용한 데이터 병렬화
대역폭 포화
19.5.3 분산 전략 API를 사용한 대규모 훈련
19.5.4 텐서플로 클러스터에서 모델 훈련하기
19.5.5 버텍스 AI에서 대규모 훈련 작업 실행하기
19.5.6 버텍스 AI의 하이퍼파라미터 튜닝
연습문제
[3부 부록]
부록 A
연습문제 정답
부록 B
머신러닝 프로젝트 체크리스트
부록 C
자동 미분
부록 D
특수한 데이터 구조
부록 E
텐서플로 그래프
아현
For the sake of someone who studies computer science
팔로우
이전 포스트
[GPT-4를 활용한 인공지능 앱 개발] GPT-4와 챗GPT의 API ②
다음 포스트
[Hands-On Machine Learning] 1장 한눈에 보는 머신러닝
0개의 댓글
댓글 작성