sklearn 线性回归linear regression做分类任务
测试了一下使用linear regression做分类任务准确率的确很高啊,我的的思路是:
- 需要预测的是 0 1 ,而linear regression本来的预测值是连续变量
- 把linear regression预测的结果 >0.5 的当成 1,把 <0.5 的当成0
- 然后把预测结果与实际的结果比较
核心代码(交叉验证)
这里根据自己的数据填充:
- x_train_std:正则化后的训练的 X
- y_train:训练的 Y
import pandas as pd
import numpy as np
from sklearn.preprocessing import StandardScaler
from sklearn.model_selection import ShuffleSplit
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LinearRegression
from sklearn.model_selection import KFold
from sklearn.metrics import make_scorer
from sklearn.model_selection import cross_validatedef linear_score(true_value, predict):predict[predict < 0.5] = 0predict[predict > 0.5] = 1return predict[predict == true_value].size / predict.sizeliner_model = LinearRegression()
scoring = {'linear_score': make_scorer(linear_score, greater_is_better=True)
}
kfold = KFold(n_splits=10, random_state=0)
cv_cross = cross_validate(liner_model, x_train_std, y_train, cv=kfold, scoring=scoring)print(cv_cross['test_linear_score'].mean()) # 交叉验证的均值
print(cv_cross['test_linear_score'].std()) # 交叉验证的方差
sklearn 线性回归linear regression做分类任务相关推荐
- 机器学习方法:回归(一):线性回归Linear regression
欢迎转载,转载请注明:本文出自Bin的专栏blog.csdn.net/xbinworld. 开一个机器学习方法科普系列:做基础回顾之用,学而时习之:也拿出来与大家分享.数学水平有限,只求易懂,学习与工 ...
- 复盘:手推LR(逻辑回归logistics regression),它和线性回归linear regression的区别是啥
复盘:手推LR(逻辑回归logistics regression),它和线性回归linear regression的区别是啥? 提示:系列被面试官问的问题,我自己当时不会,所以下来自己复盘一下,认真学 ...
- 线性回归 Linear Regression 与逻辑回归 Logistic Regression
1 线性回归 Linear Regression 理论 线性回归模型研究多个变量x与y之间的关系,通过回归模型预测位置样本的数据. 假设函数 损失函数 损失函数寻优,最小二乘法 即: 注:最小二乘法需 ...
- Coursera公开课笔记: 斯坦福大学机器学习第二课“单变量线性回归(Linear regression with one variable)”
Coursera公开课笔记: 斯坦福大学机器学习第二课"单变量线性回归(Linear regression with one variable)" 发表于 2012年05月6号 由 ...
- Ng第二课:单变量线性回归(Linear Regression with One Variable)
二.单变量线性回归(Linear Regression with One Variable) 2.1 模型表示 2.2 代价函数 2.3 代价函数的直观理解 2.4 梯度下降 2.5 梯度下 ...
- Coursera公开课笔记: 斯坦福大学机器学习第四课“多变量线性回归(Linear Regression with Multiple Variables)”
Coursera公开课笔记: 斯坦福大学机器学习第四课"多变量线性回归(Linear Regression with Multiple Variables)" 斯坦福大学机器学习第 ...
- Stanford机器学习---第二讲. 多变量线性回归 Linear Regression with multiple variable
本栏目(Machine learning)包括单参数的线性回归.多参数的线性回归.Octave Tutorial.Logistic Regression.Regularization.神经网络.机器学 ...
- 多元线性回归算法: 线性回归Linear Regression、岭回归Ridge regression、Lasso回归、主成分回归PCR、偏最小二乘PLS
0. 问题描述 输入数据:X=(x1,x2,....,xm)\mathbf{X} = (x_1, x_2,...., x_m)X=(x1,x2,....,xm), 相应标签 Y=(y1,y2,. ...
- 西瓜书+实战+吴恩达机器学习(四)监督学习之线性回归 Linear Regression
文章目录 0. 前言 1. 线性回归参数求解方法 2. 线性回归正则化 2.1. 岭回归 2.2. LASSO 3. 局部加权线性回归 4. 广义线性模型 如果这篇文章对你有一点小小的帮助,请给个关注 ...
最新文章
- Sublime Text3注册激活和部分配置
- 若兰-nvjdc 1.3新版本安装及老版本升级教程
- RMQ(Range Minimum/Maximum Query)问题:
- 【题解】 hdu2955 Robberies
- Vue.js 过滤器
- django-重写登录认证(可以使用用户名或手机号登录)
- 前后端配合实现密码找回功能思路
- 【ElasticSearch】Es 源码之 GatewayMetaState 源码解读
- UI设计灵感|3D\C4D元素网站,流行最前沿
- CCNP实验4-2:配置多区域和NBMA OSPF
- C#使用IHttpModule接口修改http输出的方法浅谈
- oracle中的内连接和外连接区别
- docker方式安装redis-自定义redis配置文件
- 关于Asterisk的传真以及ForIP的概念
- 企业版IDP的申请及“In House”发布
- 软件工程(2018)结对编程第2次作业
- vue 页面刷新404
- student dictionary
- 《jsp程序设计》智多星手机销售网后台设计
- 【机器学习】这份分类决策树算法介绍请收好!