혼공 머신러닝 + 딥러닝 6장

cse 23·2023년 11월 1일
0

06-1 군집 알고리즘

비지도 학습: 타깃이 없을깨 사용하는 머싱러닝 알고리즘
넘파이에서 npt 파일을 로드 하는 방법-> load() 메서드에 퍼일 이름을 전달하는것

픽셀값 분석하기
이미지로 출력하긴 어렵지만 배열을 계산할때 편리

평균값과 가까운 사진 고르기
넘파이 abs()함수-> 절댓값을 계산하는 함수
ex) fruits배열에 있는 모든 샘플 - apple_mean을 뺀 절댓값의 평균

히스토그램: 구간별로 값이 발생한 빈도를 그래프로 표시한것
x축: (구간)계급 y축: 발생 빈도(도수)

군집: 비슷한 샘플끼리 하나의 그룹으로 모으는 대표적인 비지도학습작업

06-2 k-평균

k-평균 : 알고리즘은 처음에 랜덤하게 클러스터 중심을 정하고 클러스터를 만듦
->클러스터의 중심을 이동하고 다시 클러스터를 만드는 식으로 반복해서 최적의 클러스터를 구성하는 알고리즘

클러스터 중심: k-평균이 만든 클러스터에 속한 샘플의 특성 평균값 (센트로이드)
가장 가까운 클러스터 중심을 샘플의 또 다른 특성으로 사용하거나 새로운 샘플에 대한 예측으로 활용

엘보우 방법: 최적의 클러스터 개수를 정하는 방법중 하나
이너셔: 클러스터 중심과 샘플 사이 거리으 제곱 합
클러스터 개수에 따라 이너셔 감소가 꺾이는 지점이 적절한 클러스터 개수 k
->이 그래프의 모양을 따서 엘보우 방법이라 부름

06-3 주성분 분석

다른 알고리즘과 함께 사용하기
원본 데이터와 PCA로 축소한 디이터를 지도 학습에 적용해 보고 어떤 차이가 있는지 알아봄

차원축소: 원본 데이터의 특성을 적은 수의 새로운 특성으로 변황하은 비지도 학습의 한 종류입니다. 차원 축소은 저장공간을 줄이고 시각화하기 쉽가. 또한 다른 알고리즘의 성능을 높일 수도 있음

주성분 분석: 차원 축소 알고리즘의 하나로 데이터에서 가장 분산이 큰 방형을 찾는 방법-> 이런 방향을 주성분이라고 부름
원본 데이터를 주성분에 투영하여 새로운 특성을 만들수 있음

설명된 분산: 주성분 분석에서 주성분이 얼마나 원본 데이터의 분산을 잘 나타내는지 기록한것

PCA : 주성분 분석을 수행하는 클래스
ncompenents: 주성분의 개수를 지정(기본값: None)
random_state: 넘파이 난수 시드 값을 지정할 수 있음
components: 훈련세크에서 찾은 주성분이 저장
explained_variance
: 속성에는 설명된 분산이 저장
explainedvariance_ratio: 설명된 분산의 비율이 저장
Inverse_transform()메서드 : transform()메서드로 차원을 축소시킨 데이터를 다시 원본 차원으로 복원

클러스터의 산점도를 잘 구분됌

0개의 댓글