我是靠谱客的博主 忧伤蜗牛,最近开发中收集的这篇文章主要介绍【决策树】-泰坦尼克号实战一、数据集和资料二、代码实现三、剪枝参数取值四、一些笔记,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

文章目录

  • 一、数据集和资料
  • 二、代码实现
  • 三、剪枝参数取值
    • 实现思路
    • 常见参数
  • 四、一些笔记
    • Pandas
      • `fillna()`函数
      • `value_counts()`函数
      • DataFrame操作
      • 使用to_dict将pandas.DataFrame转换为Python中的字典列表
      • sklearn 特征选择中的 DictVectorizer 类
      • sklearn 特征选择中的 cross_val_score的方法
    • 其他

一、数据集和资料

参考博客
数据集 提取码: 0i0v
训练集是标准的,泛化数据集是我手动添加的标注 只有20条

二、代码实现

# -*- coding: utf-8 -*
import pandas as pd
import numpy as np
from sklearn.feature_extraction import DictVectorizer
from sklearn.tree import DecisionTreeClassifier
from sklearn.model_selection import cross_val_score
from sklearn.tree import export_graphviz
import matplotlib.pyplot as plt
# 数据加载
train_data = pd.read_csv('train.csv')
test_data = pd.read_csv('test.csv')
# 数据探索
# print(train_data.info())
# print(train_data.describe())
# print(train_data.describe(include=['O']))
# print(train_data.head())
# print(train_data.tail())
# 数据清洗
# 使用平均年龄来填充年龄中的Nan值
train_data['Age'].fillna(train_data['Age'].mean(), inplace=True)
test_data['Age'].fillna(test_data['Age'].mean(),inplace=True)
# 使用票价的均值填充票价中的Nan值
train_data['Fare'].fillna(train_data['Fare'].mean(), inplace=True)
test_data['Fare'].fillna(test_data['Fare'].mean(),inplace=True)
# 使用登录最多的港口来填充登录港口的nan值
# print(train_data['Embarked'].value_counts())
train_data['Embarked'].fillna('S', inplace=True)
test_data['Embarked'].fillna('S',inplace=True)
# 特征选择
features = ['Pclass', 'Sex', 'Age', 'SibSp', 'Parch', 'Fare', 'Embarked']
train_features = train_data[features]
train_labels = train_data['Survived']
test_features = test_data[features]
test_labels = test_data['Survived']
dvec = DictVectorizer(sparse=False)
train_features = dvec.fit_transform(train_features.to_dict(orient='record'))
test_features = dvec.fit_transform(test_features.to_dict(orient='record'))
# 构造ID3决策树
clf = DecisionTreeClassifier(criterion='entropy')
# 构造CART决策树
#clf = DecisionTreeClassifier(criterion='gini')
# 决策树训练
clf.fit(train_features, train_labels)
# # 模型预测 & 评估
# test_features=dvec.transform(test_features.to_dict(orient='record'))
# # 决策树预测
# pred_labels = clf.predict(test_features)
# 得到决策树准确率
acc_decision_tree = round(clf.score(test_features, test_labels), 6)
print(u'score准确率为 %.4lf' % acc_decision_tree)
# 使用K折交叉验证 统计决策树准确率
print(u'cross_val_score准确率为 %.4lf' % np.mean(cross_val_score(clf, test_features, test_labels, cv=10)))
#用学习曲线确定最优剪枝参数取值
test = []
for i in range(10):
clf = DecisionTreeClassifier(max_depth=i+1,criterion="gini")
clf.fit(train_features, train_labels)
score = np.mean(cross_val_score(clf, test_features, test_labels, cv=10))
test.append(score)
plt.plot(range(1,11),test,color="red",label="max_depth")
plt.legend()
plt.show()
#可视化决策树
export_graphviz(clf, out_file="titanic_tree.dot" , feature_names=dvec.get_feature_names())

三、剪枝参数取值

实现思路

#用学习曲线确定最优剪枝参数取值
test = []
for i in range(10):
clf = DecisionTreeClassifier(max_depth=i+1,criterion="gini")
clf.fit(train_features, train_labels)
score = np.mean(cross_val_score(clf, test_features, test_labels, cv=10))
test.append(score)
plt.plot(range(1,11),test,color="red",label="max_depth")
plt.legend()
plt.show()

常见参数

剪枝参数 max_depth
限制树的最大深度max_depth,超过设定深度的树枝全部剪掉。这个是用的最广的。
剪枝参数 min_impurity_decrease
min_impurity_decrease限制信息增益的大小,信息增益小于设定数值的分支不会发生。(这个是课上讲的预剪枝)
剪枝参数 max_features
max_features限制分支时考虑的特征个数,超过限制个数的特征都会被舍弃。
剪枝参数 min_samples_split
限定一个结点必须要包含至少min_samples_split个训练样本,这个结点才允许被分支,否则分支就不会发生。
剪枝参数 min_samples_leaf
限定一个结点在分支后的每个子结点都必须包含至少min_samples_leaf个训练样本,否则分支就不会发生,或者,分支会朝着满足每个子结点都包含min_samples_leaf个样本的方向去
发生。

四、一些笔记

Pandas

fillna()函数

用于缺失数据的填充
参考博客 这里

value_counts()函数

用于确认数据出现的频率
参考博客 这里

DataFrame操作

原来还能这么操作 长见识了

features = ['Pclass', 'Sex', 'Age', 'SibSp', 'Parch', 'Fare', 'Embarked']
train_features = train_data[features]

使用to_dict将pandas.DataFrame转换为Python中的字典列表

>>> df
col1
col2
0
1
3
1
2
4
>>> [df.to_dict(orient='index')]
[{0: {'col1': 1, 'col2': 3}, 1: {'col1': 2, 'col2': 4}}]
>>> df.to_dict(orient='records')
[{'col1': 1, 'col2': 3}, {'col1': 2, 'col2': 4}]

sklearn 特征选择中的 DictVectorizer 类

处理符号化的对象,将符号转成数字 0/1 进行表示。

from sklearn.feature_extraction import DictVectorizer
dvec=DictVectorizer(sparse=False) # 不创建稀疏矩阵
# fit_transform 这个函数,它可以将特征向量转化为特征值矩阵
train_features=dvec.fit_transform(train_features.to_dict(orient='record'))

sklearn 特征选择中的 cross_val_score的方法

进行K 折交叉验证

from sklearn.model_selection import cross_val_score
# 使用 K 折交叉验证 统计决策树准确率
print(u'cross_val_score 准确率为 %.4lf' % np.mean(cross_val_score(clf, train_features, train_labels, cv=10)))

其他

  1. graphviz的安装及环境变量配置
    安装graphviz(运行stable_windows_10_cmake_Release_x64_graphviz-install-2.47.0-win64.exe,选择添加环境变量,重启Anaconda)
  2. Titanic.py产生.dot文件之后,可以用如下graphviz命令生成PNG文件:
    dot -Tpng titanic_tree.dot -o titanic_tree.png
    graphviz资源:这里 提取码:5ldw

最后

以上就是忧伤蜗牛为你收集整理的【决策树】-泰坦尼克号实战一、数据集和资料二、代码实现三、剪枝参数取值四、一些笔记的全部内容,希望文章能够帮你解决【决策树】-泰坦尼克号实战一、数据集和资料二、代码实现三、剪枝参数取值四、一些笔记所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(45)

评论列表共有 0 条评论

立即
投稿
返回
顶部