sklearn在机器学习中的应用-K近邻

  1. K近邻分类
    1. 参数
    2. 方法
  2. K近邻回归

[toc]
K近邻K-Nearest Neighber,KNN

K近邻分类

1
sklearn.neighbors.KNeighborsClassifier(n_neighbors=5,weights='uniform',algorithm='auto',leaf_size=30,metirc='minkowski',p=2,n_jobs=-1)

参数

n_neighbors 指定最近邻点的个数
weights 指定投票权重类型
- 默认为uniform 表示K个最近邻点的投票权均等
- distance 表示投票权中与它们距离待预测点的距离成反比
algorithm 指定寻找最近邻点的算法
- auto
- kd_tree(KD树算法)
- ball_tree(BallTree算法)
- brute(暴力搜索法)
leaf_size指定KD树算法BallTree算法中叶子节点的数目
metric指定距离度量的类型。默认闵可夫斯基
p 配合metric 使用
- p=1 曼哈顿距离
- p=2 欧式距离
n_jobs 计算机核数

方法

fit(X_train,y_train)
score(X_test,y_test)
predict(X)
predict_proba(X)预测集X属于各个类别的概率
kneighbors([X,n_neighbors,return_distance])返回待测样本点的K个最近邻点,当return_distance=True时,还会返回这些最近邻点对应的距离
keighbors_graph([X,n_neighbors,model])返回样本点的连接图

K近邻回归

参考K近邻分类


转载请注明来源,欢迎对文章中的引用来源进行考证,欢迎指出任何有错误或不够清晰的表达。可以在下面评论区评论,也可以邮件至 jaytp@qq.com

文章标题:sklearn在机器学习中的应用-K近邻

本文作者:Espresso

发布时间:2019-12-02, 19:56:01

最后更新:2019-12-02, 20:17:03

原始链接:http://yoursite.com/2019/12/02/sklearn%E5%9C%A8%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0%E4%B8%AD%E7%9A%84%E5%BA%94%E7%94%A8%EF%BC%8DK%E8%BF%91%E9%82%BB/

版权声明: "署名-非商用-相同方式共享 4.0" 转载请保留原文链接及作者。

目录
github