决策树

  1. 参数
  2. 属性
  3. 方法

[toc]

1
class sklearn.tree.DecisionTreeClassifier(criterion='gini',splitter='best',max_features=None,max_depth=None,max_leaf_nodes=None,min_sample_split=2,min_impurity_split=1e-07,min_samples_leaf=1,class_weight=None)

参数

criterion 特征选择标准
- 默认gini,代表基尼系数,CART
- entropy, ID3或者C4.5决策树
splitter 特征划分点选择标准
- best 按照标准选择最优化分
- random 在部分划分点中随机地找局部最优划分,数据量较大时,可以考虑
max_features划分时考虑的最大特征数
- None 划分时考虑所有特征
- log2 考虑$log_2N$个特征,N表示特征总数
- sqrt/auto $\sqrt(N)$
max_depth 决策树最大深度
max_leaf_nodes 最大叶子节点数,特征多时,可以用来限制防止过拟合
min_samples_split内部节点划分所需要最小样本数
min_impurity_split节点划分的最小不纯度
min_samples_leaf叶子节点最小样本数
class_weight样本所属类别的权重

属性

feature_importances_ 给出各个特征的重要程度,值越大,特征越重要
tree_底层的决策树

方法

fit(X_train,y_train)
score(X_test,y_test)
predict(X)
predict_proba(X) 回归树无该方法
predict_log_proba(X)


转载请注明来源,欢迎对文章中的引用来源进行考证,欢迎指出任何有错误或不够清晰的表达。可以在下面评论区评论,也可以邮件至 jaytp@qq.com

文章标题:决策树

本文作者:Espresso

发布时间:2019-12-05, 15:20:49

最后更新:2019-12-05, 15:42:32

原始链接:http://yoursite.com/2019/12/05/%E5%86%B3%E7%AD%96%E6%A0%91/

版权声明: "署名-非商用-相同方式共享 4.0" 转载请保留原文链接及作者。

目录
github