ML之回归预测:利用13种机器学习算法对Boston(波士顿房价)数据集【13+1,506】进行回归预测(房价预测)来比较各模型性能

导读
通过利用13种机器学习算法,分别是LiR、kNN、SVR、DTR、RFR、SGDR、GBR、LGBR、XGBR算法,然后对Boston(波士顿房价)数据集,形状是【13+1,506】,进行回归预测(房价预测)来比较各模型性能,发现LGBR模型的性能最好。

相关文章
ML之回归预测:利用13种机器学习算法对Boston(波士顿房价)数据集【13+1,506】进行回归预测(房价预测)来比较各模型性能

目录

输出结果

设计思路


输出结果


新增第13种ML算法

数据的初步查验:输出回归目标值的差异
The max target value is 50.0
The min target value is 5.0
The average target value is 22.532806324110677LiR:The value of default measurement of LiR is 0.6763403830998702
LiR:R-squared value of DecisionTreeRegressor: 0.6763403830998702
LiR:The mean squared error of DecisionTreeRegressor: 25.096985692067726
LiR:The mean absoluate error of DecisionTreeRegressor: 3.5261239963985433kNNR_uni:The value of default measurement of kNNR_uni is 0.6903454564606561
kNNR_uni:R-squared value of DecisionTreeRegressor: 0.6903454564606561
kNNR_uni:The mean squared error of DecisionTreeRegressor: 24.01101417322835
kNNR_uni:The mean absoluate error of DecisionTreeRegressor: 2.9680314960629928
kNNR_dis:The value of default measurement of kNNR_dis is 0.7197589970156353
kNNR_dis:R-squared value of DecisionTreeRegressor: 0.7197589970156353
kNNR_dis:The mean squared error of DecisionTreeRegressor: 21.730250160926044
kNNR_dis:The mean absoluate error of DecisionTreeRegressor: 2.8050568785108005linear_SVR:The value of default measurement of linear_SVR is 0.651717097429608
linear_SVR:R-squared value of DecisionTreeRegressor: 0.651717097429608
linear_SVR:The mean squared error of DecisionTreeRegressor: 27.0063071393243
linear_SVR:The mean absoluate error of DecisionTreeRegressor: 3.426672916872753
poly_SVR:The value of default measurement of poly_SVR is 0.40445405800289286
poly_SVR:R-squared value of DecisionTreeRegressor: 0.4044540580028929
poly_SVR:The mean squared error of DecisionTreeRegressor: 46.1794033139523
poly_SVR:The mean absoluate error of DecisionTreeRegressor: 3.75205926674149
rbf_SVR:The value of default measurement of rbf_SVR is 0.7564068912273935
rbf_SVR:R-squared value of DecisionTreeRegressor: 0.7564068912273935
rbf_SVR:The mean squared error of DecisionTreeRegressor: 18.888525000753493
rbf_SVR:The mean absoluate error of DecisionTreeRegressor: 2.6075632979823276DTR:The value of default measurement of DTR is 0.699313885811367
DTR:R-squared value of DecisionTreeRegressor: 0.699313885811367
DTR:The mean squared error of DecisionTreeRegressor: 23.31559055118111
DTR:The mean absoluate error of DecisionTreeRegressor: 3.1716535433070865RFR:The value of default measurement of RFR is 0.8320900865862684
RFR:R-squared value of DecisionTreeRegressor: 0.8320900865862684
RFR:The mean squared error of DecisionTreeRegressor: 13.019952055992995
RFR:The mean absoluate error of DecisionTreeRegressor: 2.3392650918635174ETR:The value of default measurement of ETR is 0.7595247600325825
ETR:R-squared value of DecisionTreeRegressor: 0.7595247600325824
ETR:The mean squared error of DecisionTreeRegressor: 18.646761417322832
ETR:The mean absoluate error of DecisionTreeRegressor: 2.5487401574803146SGDR:The value of default measurement of SGDR is 0.6525677025033261
SGDR:R-squared value of DecisionTreeRegressor: 0.6525677025033261
SGDR:The mean squared error of DecisionTreeRegressor: 26.940350120746693
SGDR:The mean absoluate error of DecisionTreeRegressor: 3.524049659554681
GBR:The value of default measurement of GBR is 0.8442966156976921
GBR:R-squared value of DecisionTreeRegressor: 0.8442966156976921
GBR:The mean squared error of DecisionTreeRegressor: 12.07344198657727
GBR:The mean absoluate error of DecisionTreeRegressor: 2.2692783233003326[LightGBM] [Warning] feature_fraction is set=0.6, colsample_bytree=1.0 will be ignored. Current value: feature_fraction=0.6
[LightGBM] [Warning] min_data_in_leaf is set=18, min_child_samples=20 will be ignored. Current value: min_data_in_leaf=18
[LightGBM] [Warning] min_sum_hessian_in_leaf is set=0.001, min_child_weight=0.001 will be ignored. Current value: min_sum_hessian_in_leaf=0.001
[LightGBM] [Warning] bagging_fraction is set=0.7, subsample=1.0 will be ignored. Current value: bagging_fraction=0.7
LGBR:The value of default measurement of LGBR is 0.824979251097139
LGBR:R-squared value of DecisionTreeRegressor: 0.824979251097139
LGBR:The mean squared error of DecisionTreeRegressor: 13.5713354452417
LGBR:The mean absoluate error of DecisionTreeRegressor: 2.3653297699911455
[0.6763403830998702, 0.6903454564606561, 0.7197589970156353, 0.651717097429608, 0.40445405800289286, 0.7564068912273935, 0.699313885811367, 0.8320900865862684, 0.7595247600325825, 0.6525677025033261, 0.8442966156976921, 0.824979251097139]{'learning_rate': 0.09, 'max_depth': 4, 'n_estimators': 200}
rmse: 0.37116076328428194
XGBR_grid:The value of default measurement of XGBR_grid is -0.1355992935386311
XGBR_grid:R-squared value of DecisionTreeRegressor: 0.8494067182200448
XGBR_grid:The mean squared error of DecisionTreeRegressor: 11.67719810423491
XGBR_grid:The mean absoluate error of DecisionTreeRegressor: 2.156086404304805

设计思路

ML之回归预测:利用13种机器学习算法对Boston(波士顿房价)数据集【13+1,506】进行回归预测(房价预测)来比较各模型性能相关推荐

  1. ML之回归预测:利用13种机器学习算法对Boston(波士顿房价)数据集【13+1,506】进行回归预测(房价预测)+预测新数据得分

    ML之回归预测:利用13种机器学习算法对Boston(波士顿房价)数据集[13+1,506]进行回归预测(房价预测)+预测新数据得分 导读 本文章基于前边的一篇文章,对13种机器学习的回归模型性能比较 ...

  2. ML之回归预测:利用两种机器学习算法(LiR,XGBoost(调优+重要性可视化+特征选择模型))对无人驾驶汽车系统参数(2017年的data,18+2)进行回归预测值VS真实值

    ML之回归预测:利用两种机器学习算法(LiR,XGBoost(调优+重要性可视化+特征选择模型))对无人驾驶汽车系统参数(2017年的data,18+2)进行回归预测值VS真实值 目录 输出结果 1. ...

  3. ML之回归预测:利用十(xgboost,10-1)种机器学习算法对无人驾驶汽车系统参数(2017年的data,18+2)进行回归预测值VS真实值——bug调试记录

    ML之回归预测:利用十(xgboost,10-1)种机器学习算法对无人驾驶汽车系统参数(2017年的data,18+2)进行回归预测值VS真实值--bug调试记录 目录 输出结果 1.增加XGBR算法 ...

  4. ML之回归预测:利用八(9-1)种机器学习算法对无人驾驶汽车参数(2017年的data,18+2)进行回归预测值VS真实值

    ML之回归预测:利用八(9-1)种机器学习算法对无人驾驶汽车参数(2017年的data,18+2)进行回归预测值VS真实值 目录 模型评估 输出结果 模型评估 相关文章:ML之回归预测:利用八(9-1 ...

  5. ML之回归预测:利用十类机器学习算法(线性回归、kNN、SVM、决策树、随机森林、极端随机树、SGD、提升树、LightGBM、XGBoost)对波士顿数据集回归预测(模型评估、推理并导到csv)

    ML之回归预测:利用十类机器学习算法(线性回归.kNN.SVM.决策树.随机森林.极端随机树.SGD.提升树.LightGBM.XGBoost)对波士顿数据集[13+1,506]回归预测(模型评估.推 ...

  6. ML之分类预测:基于sklearn库的七八种机器学习算法利用糖尿病(diabetes)数据集(8→1)实现二分类预测

    ML之分类预测:基于sklearn库的七八种机器学习算法利用糖尿病(diabetes)数据集(8→1)实现二分类预测 目录 输出结果 数据集展示 输出结果 1.k-NN 2.LoR 4.DT 5.RF ...

  7. ML之LiR:利用LiR线性回归算法(自定义目标函数MSE和优化器GD)对Boston房价数据集(两特征+归一化)进行回归预测

    ML之LiR:利用LiR线性回归算法(自定义目标函数MSE和优化器GD)对Boston房价数据集(两特征+归一化)进行回归预测 目录 利用LiR线性回归算法(自定义目标函数MSE和优化器GD)对Bos ...

  8. ML之xgboost:利用xgboost算法对Boston(波士顿房价)数据集【特征列分段→独热编码】进行回归预测(房价预测)+预测新数据得分

    ML之xgboost:利用xgboost算法对Boston(波士顿房价)数据集[特征列分段→独热编码]进行回归预测(房价预测)+预测新数据得分 导读 对Boston(波士顿房价)数据集进行特征工程,分 ...

  9. TF之LSTM:利用LSTM算法对Boston(波士顿房价)数据集【13+1,506】进行回归预测(房价预测)

    TF之LSTM:利用LSTM算法对Boston(波士顿房价)数据集[13+1,506]进行回归预测(房价预测) 相关文章 DL之LSTM:利用LSTM算法对Boston(波士顿房价)数据集[13+1, ...

最新文章

  1. 我理解的分类、目标检测、目标识别、目标定位、目标跟踪
  2. postgresql 数据库 客户端认证
  3. 【每周CV论文推荐】 初学GAN必须要读的文章
  4. Python的Super方法
  5. 【放置奇兵】英雄各属性介绍
  6. 联想20年的45条成功法则
  7. java 字节取位_java位 、字节 、字符的梳理
  8. 遍历DataTable内存数据的三种方法性能对比
  9. android daemon 程序,(转)Android App Daemon
  10. webservice 参数太大_手把手系列:常用数据交换方案Web Service接口处理法
  11. python3 爬虫实例_【实战练习】Python3网络爬虫快速入门实战解析(上)
  12. Python逐块执行另一个Python程序中的代码观察运行过程
  13. 字节跳动入局全网搜索;思科回应中国区裁员;IntelliJ IDEA 新版发布! | 极客头条...
  14. Vue.nextTick DOM 更新循环结束之后执行延迟回调
  15. 性能测试指标:吞吐量,qps,并发量,响应时间
  16. 职业规划-《你的降落伞是什么颜色》书中的精髓:如何挖掘自我优势,找到心仪的工作?
  17. 在word2015中的条形图在灰度的情况下不明显
  18. 再见 Wordpress!这个开源建站神器有点吊
  19. JavaScript 中的事件类型3(读书笔记思维导图)
  20. c语言luhn算法生成校验位,银行卡号码校验算法(Luhn算法,又叫模10算法)

热门文章

  1. java调用存储过程sqlserver_Java调用SqlServer存储过程怎么实现 | 学步园
  2. python读取pdf表格_【Python 库】解析PDF文本及表格——pdfminer、tabula、pdfplumber 的用法及对比...
  3. sql删除过程的命令是什么_今日份知识分享:SQL 介绍
  4. ubuntu9.10 安装 eclipse3.5 的问题
  5. Swift 5 将进一步减小 iOS 应用安装包大小
  6. EntityFramework Core数据查询
  7. shell脚本安装mysql并安装一个小服务
  8. 常用抓包工具(可编程抓包工具)
  9. Windows 7 版本知多少(Win 7 N/K/KN/E)
  10. 那些年,我们踩过的 Java 坑