决策树
[toc]
1 | class sklearn.tree.DecisionTreeClassifier(criterion='gini',splitter='best',max_features=None,max_depth=None,max_leaf_nodes=None,min_sample_split=2,min_impurity_split=1e-07,min_samples_leaf=1,class_weight=None) |
参数
criterion
特征选择标准
- 默认gini,代表基尼系数,CART
- entropy, ID3或者C4.5决策树splitter
特征划分点选择标准
- best 按照标准选择最优化分
- random 在部分划分点中随机地找局部最优划分,数据量较大时,可以考虑max_features
划分时考虑的最大特征数
- None 划分时考虑所有特征
- log2 考虑$log_2N$个特征,N表示特征总数
- sqrt/auto $\sqrt(N)$max_depth
决策树最大深度max_leaf_nodes
最大叶子节点数,特征多时,可以用来限制防止过拟合min_samples_split
内部节点划分所需要最小样本数min_impurity_split
节点划分的最小不纯度min_samples_leaf
叶子节点最小样本数class_weight
样本所属类别的权重
属性
feature_importances_
给出各个特征的重要程度,值越大,特征越重要tree_
底层的决策树
方法
fit(X_train,y_train)
score(X_test,y_test)
predict(X)
predict_proba(X)
回归树无该方法predict_log_proba(X)
转载请注明来源,欢迎对文章中的引用来源进行考证,欢迎指出任何有错误或不够清晰的表达。可以在下面评论区评论,也可以邮件至 jaytp@qq.com
文章标题:决策树
本文作者:Espresso
发布时间:2019-12-05, 15:20:49
最后更新:2019-12-05, 15:42:32
原始链接:http://yoursite.com/2019/12/05/%E5%86%B3%E7%AD%96%E6%A0%91/版权声明: "署名-非商用-相同方式共享 4.0" 转载请保留原文链接及作者。