from sklearn.tree import DecisionTreeClassifier
iris_tree = DecisionTreeClassifier()
iris_tree.fit(iris.data[:, 2:], iris.target)
-> iris.data의 모든 행의 2,3 컬럼의 데이터를 학습시킴. 정답은 iris.target이라고 알려줌.
y_pred_tr = iris_tree.predict(iris.data[:, 2:])
y_pred_tr
-> 해당 데이터의 length, width만 가지고 정답을 predict해보라고 시킴
from sklearn.metrics import accuracy_score
accuracy_score(iris.target, y_pred_tr)
-> (정답, 예측값)을 입력해서 예측값의 정확도를 알려줌
from sklearn.tree import plot_tree
plt.figure(figsize=(12,8))
plot_tree(iris_tree);
-> decision tree를 그려줌 (어떤 조건에 의해 구분했는가)
from mlxtend.plotting import plot_decision_regions
plt.figure(figsize=(14,8))
plot_decision_regions(X=iris.data[:, 2:], y=iris.target, clf=iris_tree, legend=2)
plt.show()
-> 결정(decision) 경계를 확인할 수 있음
from sklearn.model_selection import train_test_split
features = iris.data[:, 2:]
labels = iris.target
X_train, X_test, y_train, y_test = train_test_split(features, labels, test_size=0.2, random_state=13)
-> 테스트 0.2, 훈련 0.8 비율로 데이터를 랜덤으로 분리시킴
import numpy as np
np.unique(y_test, return_counts=True)
-> 분리된 데이터 종류별 개수 확인해보기
-> 일정하게 맞춰주기 위해서는 stratify 옵션 사용
X_train, X_test, y_train, y_test = train_test_split(features, labels, test_size=0.2, stratify=labels, random_state=13)
from sklearn.tree import DecisionTreeClassifier
iris_tree = DecisionTreeClassifier(max_depth=2, random_state=13)
iris_tree.fit(X_train, y_train)
-> 학습할 때마다 일관성을 위해 random_state만 고정하기
-> 모델을 단순화시키기 위해(과적합을 막기 위해) max_depth(나무 모델 깊이)를 조정 (모델의 성능을 제한함)
from sklearn.tree import plot_tree
import matplotlib.pyplot as plt
plt.figure(figsize=(12,8))
plot_tree(iris_tree);
-> 나무 모델 확인
from sklearn.metrics import accuracy_score
y_pred_tr = iris_tree.predict(iris.data[:, 2:])
accuracy_score(iris.target, y_pred_tr)
-> accuracy 확인
from mlxtend.plotting import plot_decision_regions
plt.figure(figsize=(14,8))
plot_decision_regions(X=X_train, y=y_train, clf=iris_tree, legend=2)
plt.show()
-> 결정 경계 확인
y_pred_test = iris_tree.predict(X_test)
accuracy_score(y_test, y_pred_test)
-> 분리해서 남겨둔 다른 데이터로 accuracy test해보기
-> 과적합 여부 확인 (정확도가 높은지)
scatter_highlight_kwargs = {'s':150, 'label':'Test data', 'alpha':0.9}
scatter_kwargs = {'s':120, 'edgecolor':None, 'alpha':0.9}
plt.figure(figsize=(12,8))
plot_decision_regions(X=features, y=labels,
X_highlight=X_test, clf=iris_tree, legend=2,
scatter_highlight_kwargs=scatter_highlight_kwargs,
scatter_kwargs=scatter_kwargs,
contourf_kwargs={'alpha':0.2}
)
-> train 데이터에 하이라이트 해서 전체 데이터 확인
features = iris.data
labels = iris.target
X_train, X_test, y_train, y_test = train_test_split(features, labels, test_size=0.2,
stratify=labels, random_state=13)
iris_tree = DecisionTreeClassifier(max_depth=2, random_state=13)
iris_tree.fit(X_train, y_train)
-> feature 4개 전부 사용해서 훈련시키기
test_data = np.array([[4.3, 2., 1.2, 1.]])
iris_tree.predict(test_data)
-> 새로운 데이터로 결과 predict 시켜보기 (추론)
iris_tree.predict_proba(test_data)
-> 새로운 데이터의 predict 확률 확인
iris.target_names[iris_tree.predict(test_data)]
-> 이렇게 코드를 작성하면 결과를 숫자가 아닌 이름으로 바로 확인 가능
iris_tree.feature_importances_
-> feature를 구분할 때의 각 기준에 대한 중요도 확인 가능
dict(zip(iris.feature_names, iris_tree.feature_importances_))
-> 깔끔하게 중요도 결과 확인 가능
list1 = ['a', 'b', 'c']
list2 = [1, 2, 3]
pairs = [pair for pair in zip(list1, list2)]
pairs
[('a', 1), ('b', 2), ('c', 3)]
dict(pairs)
dict(zip(list1, list2))
x, y = zip(*pairs)
-> 결과값이 튜플로 나옴
list(x)
list(y)
-> 튜플을 리스트로 바꿈
import pandas as pd
titanic_url = 'https://raw.githubusercontent.com/PinkWink/ML_tutorial' + \
'/master/dataset/titanic.xls'
titanic = pd.read_excel(titanic_url)
titanic.head()
import matplotlib.pyplot as plt
import seaborn as sns
%matplotlib inline
f, ax = plt.subplots(1, 2, figsize=(18, 8)) # 그래프 두개를 연달아 그리기
titanic['survived'].value_counts().plot.pie(ax=ax[0], autopct='%1.1f%%',
explode=[0, 0.1], shadow=True)
ax[0].set_title('Pie plot - Survived')
ax[0].set_ylabel('')
sns.countplot(x='survived', data=titanic, ax=ax[1])
ax[1].set_title('Count plot - Survived')
plt.show()
-> ax[0], ax[1]은 그래프의 위치를 정하는 것
import matplotlib.pyplot as plt
import seaborn as sns
%matplotlib inline
f, ax = plt.subplots(1, 2, figsize=(18, 8)) # 그래프 두개를 연달아 그리기
titanic['survived'].value_counts().plot.pie(ax=ax[0], autopct='%1.1f%%',
explode=[0, 0.1], shadow=True)
ax[0].set_title('Pie plot - Survived')
ax[0].set_ylabel('')
sns.countplot(x='survived', data=titanic, ax=ax[1])
ax[1].set_title('Count plot - Survived')
plt.show()
-> 남성의 생존율이 낮음을 알 수 있음
pd.crosstab(titanic['pclass'], titanic['survived'], margins=True)
# 'margins=True' -> 합계를 볼 수 있음
-> 1등실의 생존율이 가장 높음.
-> 여성의 생존율이 높으니 1등실에 여성이 많이 타고 있었는지 의문
grid = sns.FacetGrid(titanic, row='pclass', col='sex', height=4, aspect=2)
grid.map(plt.hist, 'age', alpha=.8, bins=20)
grid.add_legend();
-> 3등실에는 특히 20대 남성이 엄청 많았음
import plotly.express as px
fig = px.histogram(titanic, x='age')
fig.show()
-> 아이들과 20-30대가 많았음
grid = sns.FacetGrid(titanic, col='survived', row='pclass', height=4, aspect=2)
grid.map(plt.hist, 'age', alpha=.5, bins=20)
grid.add_legend();
-> 선실 등급이 높으면 생존율이 높음
titanic['age_cat'] = pd.cut(titanic['age'], bins=[0,7,15,30,60,100], # 구간을 잡아줌
include_lowest=True,
labels=['baby', 'teen', 'young', 'adult', 'old'])
titanic.head()
plt.figure(figsize=(14,6))
plt.subplot(131) # 1행 3열 중에서 첫 번째 자리
sns.barplot(x='pclass', y='survived', data=titanic)
plt.subplot(132) # 1행 3열 중에서 두 번째 자리
sns.barplot(x='age_cat', y='survived', data=titanic)
plt.subplot(133) # 1행 3열 중에서 세 번째 자리
sns.barplot(x='sex', y='survived', data=titanic)
plt.subplots_adjust(top=1, bottom=0.1, left=0.1, right=1, hspace=0.5, wspace=0.5)
-> 나이가 어리고, 여성이고, 1등실일수록 생존율이 높음
fig, axes = plt.subplots(nrows=1, ncols=2, figsize=(14,6))
women = titanic[titanic['sex']=='female']
men = titanic[titanic['sex']=='male']
ax = sns.distplot(women[women['survived']==1]['age'], bins=20,
label='survived', ax=axes[0], kde=False)
ax = sns.distplot(women[women['survived']==0]['age'], bins=40,
label='not_survived', ax=axes[0], kde=False)
ax.legend(); ax.set_title('Female')
ax = sns.distplot(men[men['survived']==1]['age'], bins=18,
label='survived', ax=axes[1], kde=False)
ax = sns.distplot(men[men['survived']==0]['age'], bins=40,
label='not_survived', ax=axes[1], kde=False)
ax.legend(); ax.set_title('Male')
import re
title = []
for idx, dataset in titanic.iterrows():
tmp = dataset['name']
title.append(re.search('\,\s\w+(\s\w+)?\.', tmp).group()[2:-1])
titanic['title'] = title
titanic.head()
pd.crosstab(titanic['title'], titanic['sex'])
titanic['title'] = titanic['title'].replace('Mlle', 'Miss')
titanic['title'] = titanic['title'].replace('Ms', 'Miss')
titanic['title'] = titanic['title'].replace('Mme', 'Mrs')
Rare_f = ['Dona', 'Dr', 'Lady', 'the Countess']
Rare_m = ['Capt', 'Col', 'Don', 'Major', 'Rev', 'Sir', 'Jonkheer', 'Master']
for each in Rare_f:
titanic['title'] = titanic['title'].replace(each, 'Rare_f')
for each in Rare_m:
titanic['title'] = titanic['title'].replace(each, 'Rare_m')
titanic['title'].unique()
titanic[['title', 'survived']].groupby(['title'], as_index=False).mean()
-> 귀족 남성은 평민 여성보다 생존율이 낮음
-> 평민남성 < 귀족남성 < 평민여성 < 귀족여성 순으로 생존율이 낮음
from sklearn.preprocessing import LabelEncoder # 문자열을 숫자로 변경해주는 기능
le = LabelEncoder()
le.fit(titanic['sex'])
titanic['gender'] = le.transform(titanic['sex'])
titanic.head()
titanic = titanic[titanic['age'].notnull()]
titanic = titanic[titanic['fare'].notnull()]
titanic.info()
from sklearn.model_selection import train_test_split
X = titanic[['pclass', 'age', 'sibsp', 'parch', 'fare', 'gender']]
y = titanic['survived']
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=13)
from sklearn.tree import DecisionTreeClassifier
from sklearn.metrics import accuracy_score
dt = DecisionTreeClassifier(max_depth=4, random_state=13)
dt.fit(X_train, y_train)
pred = dt.predict(X_test)
print(accuracy_score(y_test, pred))
# ['pclass', 'age', 'sibsp', 'parch', 'fare', 'gender']
import numpy as np
dicaprio = np.array([[3, 18, 0, 0, 5, 1]])
print('Dicaprio : ', dt.predict_proba(dicaprio)[0,1])
-> Dicaprio : 0.22950819672131148
winslet = np.array([[1, 16, 1, 1, 100, 0]])
print('Winslet : ', dt.predict_proba(winslet)[0,1])
-> Winslet : 1.0
마크다운 활용하기
파이썬은 읽기 쉬운 언어
언어가 빠르게 바뀌기 때문에 하나하나에 집중하지 말고 전체 흐름에 집중할 것
<제로베이스 데이터 취업 스쿨>