python中fit_Python sklearn中的.fit与.predict的用法说明
我就废话不多说了,大家还是直接看代码吧~
clf=KMeans(n_clusters=5) #创建分类器对象
fit_clf=clf.fit(X) #用训练器数据拟合分类器模型
clf.predict(X) #也可以给新数据数据对其预测
print(clf.cluster_centers_) #输出5个类的聚类中心
y_pred = clf.fit_predict(X) #用训练器数据X拟合分类器模型并对训练器数据X进行预测
print(y_pred) #输出预测结果
补充知识:sklearn中调用某个机器学习模型model.predict(x)和model.predict_proba(x)的区别
model.predict_proba(x)不同于model.predict(),它返回的预测值为获得所有结果的概率。(有多少个分类结果,每行就有多少个概率,对每个结果都有一个概率值,如0、1两分类就有两个概率)
我们直接上代码,通过具体例子来进一步讲解:
python3 代码实现:
# -*- coding: utf-8 -*-
"""
Created on Sat Jul 27 21:25:39 2019
@author: ZQQ
"""
from sklearn.linear_model import LogisticRegression
from sklearn.ensemble import RandomForestClassifier
from xgboost import XGBClassifier
import numpy as np
import warnings
warnings.filterwarnings("ignore")
# 这个方法只是解决了表面,没有根治
# 数据(特征,属性)
x_train = np.array([[1,2,3],
[1,5,4],
[2,2,2],
[4,5,6],
[3,5,4],
[1,7,2]])
# 数据的标签
y_train = np.array([1, 0, 1, 1, 0, 0])
# 测试数据
x_test = np.array([[2,1,2],
[3,2,6],
[2,6,4]])
# 导入模型
model = LogisticRegression()
#model = RandomForestClassifier()
#model=XGBClassifier()
model.fit(x_train, y_train)
# 返回预测标签
print(model.predict(x_test))
print('---------------------------------------')
# 返回预测属于某标签的概率
print(model.predict_proba(x_test))
运行结果:
分析结果:
使用model.predict() :
预测[2,1,2]为1类
预测[3,2,6]为1类
预测[2,6,4]为0类
使用model.predict_proba() :
预测[2,1,2]的标签是0的概率为0.19442289,1的概率为0.80557711
预测[3,2,6]的标签是0的概率为0.04163615,1的概率为0.95836385
预测[2,6,4]的标签是0的概率为0.83059324,1的概率为0.16940676
预测为0类的概率值和预测为1的概率值和为1
同理,如果标签继续增加,3类:0,1, 2
预测为0类的概率值:a
预测为1类的概率值:b
预测为2类的概率值:c
预测出来的概率值的和a+b+c=1
注:model.predict_proba()返回所有标签值可能性概率值,这些值是如何排序的呢?
返回模型中每个类的样本概率,其中类按类self.classes_进行排序。
通过numpy.unique(label)方法,对label中的所有标签值进行从小到大的去重排序。
得到一个从小到大唯一值的排序。这也就对应于model.predict_proba()的行返回结果。
以上这篇Python sklearn中的.fit与.predict的用法说明就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持python博客。
python中fit_Python sklearn中的.fit与.predict的用法说明相关推荐
- python logistics regression_Python——sklearn 中 Logistics Regression 的 coef_ 和 intercept_ 的具体意义...
sklearn 中 Logistics Regression 的 coef_ 和 intercept_ 的具体意义 使用sklearn库可以很方便的实现各种基本的机器学习算法,例如今天说的逻辑斯谛 ...
- python决策树sklearn_请问python中的sklearn中决策树使用的是哪一种算法呢?
1.10.6. Tree algorithms: ID3, C4.5, C5.0 and CART What are all the various decision tree algorithms ...
- sklearn中分类器的比较
简 介: 运行对比了 分类器的比较? 中的sklearn中的分类的性能对比.这为我们理解机器学习中的特性提供了理解基础. 关键词: sklearn,python #mermaid-svg-UbOwlP ...
- Python之 sklearn:sklearn中的RobustScaler 函数的简介及使用方法之详细攻略
Python之 sklearn:sklearn中的RobustScaler 函数的简介及使用方法之详细攻略 目录 sklearn中的RobustScaler 函数的简介及使用方法 sklearn中的R ...
- python中的sklearn.svm.svr_python机器学习库scikit-learn:SVR的基本应用
scikit-learn是python的第三方机器学习库,里面集成了大量机器学习的常用方法.例如:贝叶斯,svm,knn等. scikit-learn的官网 : http://scikit-learn ...
- python保存变量sklearn.externals_如何利用python中的sklearn.externals 模块保存加载训练模型...
前提:在做模型训练的时候,尤其是在训练集上做交叉验证,通常想要将模型保存下来,然后放到独立的测试集上进行测试,本文主要介绍如何利用python中的sklearn.externals 模块保存训练模型, ...
- python使用sklearn中的make_blobs函数生成聚类(clustering)分析需要的仿真数据、matplotlib可视化生成的仿真数据
python使用sklearn中的make_blobs函数生成聚类(clustering)分析需要的仿真数据.matplotlib可视化生成的仿真数据 目录
- python使用sklearn中的make_classification函数生成分类模型(classification)需要的仿真数据、使用pandas查看生成数据的特征数据、目标数据
python使用sklearn中的make_classification函数生成分类模型(classification)需要的仿真数据.使用pandas查看生成数据的特征数据(features).目标 ...
- Python中sklearn中HistGradientBoostingRegressor回归器配置单调约束参数monotonic_cst提高回归模型的抗噪声以及局部扰动的能力
Python中sklearn中HistGradientBoostingRegressor回归器配置单调约束参数monotonic_cst提高回归模型的抗噪声以及局部扰动的能力 目录
最新文章
- 【Manning新书】可解释人工智能: 构建可解释机器学习系统
- Java中已经存在了十几年的一个bug...
- 第一百一十五期:Web开发必须掌握的三个技术:Token、Cookie、Session
- 汇编语言ax=0c58ch,第4章89C5汇编语言程序设计.ppt
- 哦~最重要的产品链接忘了发了
- 【OpenCV入门指南】第二篇 缩放图像
- window的git extensions保存密码
- UiPath Excel 向下填充
- 前端开发实习面经总结
- COGS 577 蝗灾
- 天蝎项目整机柜服务器技术规范,天蝎整机柜服务器技术规范25.doc
- html实现波浪,纯CSS实现波浪移动效果的示例
- 新款苹果手机_入手新款苹果手机半个月 他们这样评价新手机
- 基于BP神经网络的多因素房屋价格预测matlab仿真
- 在东北老家坐长途车的遭遇
- 今日新网络舆情信息监测收集技术解决办法
- spring号外0-1 不能连接网络时,spring 配置解决办法
- Jsdelivr CDN 加速服务又被 DNS 污染了(附临时解决方案)
- 计算机R5,IT教程:电脑r5和r7是什么意思
- 点对点网络与广播式网络的区别