sklearn.neighbors.KNeighborsClassifier``
class sklearn.neighbors.KNeighborsClassifier(n_neighbors=5,weights=’uniform’,algorithm=’auto’,leaf_size=30,p=2,metric=’minkowski’,metric_params=None,n_jobs=1,*kwargs) * [source]
实现了K最近邻居投票算法的分类器。

参数:n_neighbors: int, 可选参数(默认为 5)用于[kneighbors](http://scikit-learn.org/stable/modules/generated/sklearn.neighbors.KNeighborsClassifier.html#sklearn.neighbors.KNeighborsClassifier.kneighbors)查询的默认邻居的数量weights(权重): str or callable(自定义类型), 可选参数(默认为 ‘uniform’)用于预测的权重函数。可选参数如下:- ‘uniform’ : 统一的权重. 在每一个邻居区域里的点的权重都是一样的。- ‘distance’ : 权重点等于他们距离的倒数。使用此函数,更近的邻居对于所预测的点的影响更大。- [callable] : 一个用户自定义的方法,此方法接收一个距离的数组,然后返回一个相同形状并且包含权重的数组。algorithm(算法): {‘auto’, ‘ball_tree’, ‘kd_tree’, ‘brute’}, 可选参数(默认为 'auto')计算最近邻居用的算法:- ‘ball_tree’ 使用算法[BallTree](http://scikit-learn.org/stable/modules/generated/sklearn.neighbors.BallTree.html#sklearn.neighbors.BallTree)- ‘kd_tree’ 使用算法[KDTree](http://scikit-learn.org/stable/modules/generated/sklearn.neighbors.KDTree.html#sklearn.neighbors.KDTree)- ‘brute’ 使用暴力搜索.- ‘auto’ 会基于传入[fit](http://scikit-learn.org/stable/modules/generated/sklearn.neighbors.KNeighborsClassifier.html#sklearn.neighbors.KNeighborsClassifier.fit)方法的内容,选择最合适的算法。注意 : 如果传入fit方法的输入是稀疏的,将会重载参数设置,直接使用暴力搜索。leaf_size(叶子数量): int, 可选参数(默认为 30)传入BallTree或者KDTree算法的叶子数量。此参数会影响构建、查询BallTree或者KDTree的速度,以及存储BallTree或者KDTree所需要的内存大小。 此可选参数根据是否是问题所需选择性使用。p: integer, 可选参数(默认为 2)用于Minkowski metric([闵可夫斯基空间](https://zh.wikipedia.org/wiki/%E9%96%94%E8%80%83%E6%96%AF%E5%9F%BA%E6%99%82%E7%A9%BA))的超参数。p = 1, 相当于使用[曼哈顿距离](https://zh.wikipedia.org/wiki/%E6%9B%BC%E5%93%88%E9%A0%93%E8%B7%9D%E9%9B%A2) (l1),p = 2, 相当于使用[欧几里得距离](https://zh.wikipedia.org/wiki/%E6%AC%A7%E5%87%A0%E9%87%8C%E5%BE%97%E8%B7%9D%E7%A6%BB)(l2)  对于任何 p ,使用的是[闵可夫斯基空间](https://zh.wikipedia.org/wiki/%E9%96%94%E8%80%83%E6%96%AF%E5%9F%BA%E6%99%82%E7%A9%BA)(l_p)metric(矩阵): string or callable, 默认为 ‘minkowski’用于树的距离矩阵。默认为[闵可夫斯基空间](https://zh.wikipedia.org/wiki/%E9%96%94%E8%80%83%E6%96%AF%E5%9F%BA%E6%99%82%E7%A9%BA),如果和p=2一块使用相当于使用标准欧几里得矩阵. 所有可用的矩阵列表请查询 DistanceMetric 的文档。metric_params(矩阵参数): dict, 可选参数(默认为 None)给矩阵方法使用的其他的关键词参数。n_jobs: int, 可选参数(默认为 1)用于搜索邻居的,可并行运行的任务数量。如果为-1, 任务数量设置为CPU核的数量。不会影响[fit](http://scikit-learn.org/stable/modules/generated/sklearn.neighbors.KNeighborsClassifier.html#sklearn.neighbors.KNeighborsClassifier.fit)方法。

注意 关于最近邻居算法,如果发现两个邻居,邻居k+1和k具有相同距离但不同标签,则结果将取决于训练数据的排序。
例子

>>> X = [[0], [1], [2], [3]]
>>> y = [0, 0, 1, 1]
>>> from sklearn.neighbors import KNeighborsClassifier
>>> neigh = KNeighborsClassifier(n_neighbors=3)
>>> neigh.fit(X, y)
KNeighborsClassifier(...)
>>> print(neigh.predict([[1.1]]))
[0]
>>> print(neigh.predict_proba([[0.9]]))
[[0.66666667 0.33333333]]

sklearn.neighbors.KNeighborsClassifier()函数解析相关推荐

  1. API sklearn.neighbors.KNeighborsClassifier

    https://scikit-learn.org/stable/modules/generated/sklearn.neighbors.KNeighborsClassifier.html?highli ...

  2. sklearn.neighbors.KNeighborsClassifier

    (1)fit(X, y) : Fit the model using X as training data and y as target values(把X当做训练数据,把y当做真值来训练我们的模型 ...

  3. SKlearn中的函数学习总结(持续更新)

    关于SKlearn中的函数学习及关键代码部分,会持续更新 (参考sklearn官方文档) 一:分类.回归 二:降维 三:模型评估与选择 四:数据预处理 五:模型保存 大类 小类 适用问题 实现文档 说 ...

  4. sklearn中的train_test_split()函数解析

    sklearn中的train_test_split()函数解析 train_test_split()函数:机器学习中用于分割数据集(训练集和测试集) X_train,X_test,y_train,y_ ...

  5. ML之sklearn:sklearn的make_pipeline函数、RobustScaler函数、KFold函数、cross_val_score函数的代码解释、使用方法之详细攻略

    ML之sklearn:sklearn的make_pipeline函数.RobustScaler函数.KFold函数.cross_val_score函数的代码解释.使用方法之详细攻略 目录 sklear ...

  6. sklearn.neighbors 最近邻相关算法,最近邻分类和回归

    文章目录 sklearn.neighbors 最近邻相关算法,分类和插值 1. 查找最近邻元素 2. 最近邻分类 3. 最近邻回归 4. NearestCentroid 最近邻质心分类 5. Neig ...

  7. ML之sklearn:sklearn的RobustScaler函数、KFold函数、cross_val_score函数的代码解释、使用方法之详细攻略

    ML之sklearn:sklearn的RobustScaler函数.KFold函数.cross_val_score函数的代码解释.使用方法之详细攻略 目录 sklearn的RobustScaler函数 ...

  8. oracle rpad mysql_Oracle生成不重复票号与LPAD,RPAD与NEXTVAL函数解析

    SELECT TO_CHAR(SYSDATE,'YYMMDD')||LPAD(REFUNDSEQ.NEXTVAL,6,'0') AS RES_ORDER_NO FROM DUAL 该语句拼接 时间 与 ...

  9. sklearn基于make_scorer函数为Logistic模型构建自定义损失函数并可视化误差图(lambda selection)和系数图(trace plot)+代码实战

    sklearn基于make_scorer函数为Logistic模型构建自定义损失函数并可视化误差图(lambda selection)和系数图(trace plot)+代码实战 # 自定义损失函数 i ...

最新文章

  1. python官网 中文版 新闻-新闻主页 - python兵者 - 博客园
  2. weka中文乱码解决办法
  3. Understanding Clouds from Satellite Images比赛的discussion调研与colab数据集下载配置
  4. 现代软件工程讲义 3 代码规范与代码复审
  5. Ethercat解析(一)之获取、编译、安装(Ubuntu14.04)
  6. 那些慢慢消失的手机功能,最怀念第一个!
  7. 如何在复杂的分布式系统中做测试
  8. 小心Java中封装类的值比较
  9. 2023中国眼博会/护眼仪/CEYEE青少年眼健康产业展览会
  10. 大数据———Flume与Kafka整合
  11. 【管理学视频课程】TOC制约理论的…
  12. 高级转录组调控分析和R语言数据可视化第十三期 (线上线下同时开课)
  13. 广州市2009年社保与公积金缴费费率
  14. 工业机器人和无人机得到大量使用,人工智能开始降本增效
  15. 基于s3c2410的YL-LCD35液晶驱动的分析
  16. 《嵌入式 – GD32开发实战指南》第2章 初识GPIO流水灯
  17. vue小黑记事本--摘抄
  18. 湖南文旅数据中心:湖南文旅数据早知道(9月6日)
  19. weblogic t3 协议利用与防御
  20. 头发画法:二次元人物的头发怎么画?

热门文章

  1. Java打开窗体基础用法
  2. python画三角形
  3. 通过LR给随手拍的静物照片进行小清新色调的调色
  4. 硬实时RTLinux安装配置详解 (二):编译运行RTLinux
  5. CSTC 2017 要匙
  6. [PaddleSeg 源码阅读] PaddleSeg计算 mIoU
  7. 固态硬盘的计算机需要进行磁盘碎片整理吗,SSD硬盘为何不需要磁盘碎片整理?...
  8. Basemap绘制地图
  9. 黑马程序员 jQuery
  10. 萌新linux的基础笔记