说明:这是一个机器学习实战项目(附带数据+代码+文档+视频讲解),如需数据+代码+文档+视频讲解可以直接到文章最后获取。

1.项目背景

20世纪80年代中期,David Runelhart。Geoffrey Hinton和Ronald W-llians、DavidParker等人分别独立发现了误差反向传播算法(Error Back Propagation Training),简称BP,系统解决了多层神经网络隐含层连接权学习问题,并在数学上给出了完整推导。人们把采用这种算法进行误差校正的多层前馈网络称为BP网。

本项目通过BP神经网络ANN单隐层来搭建回归模型来进行产品的预测。

2.数据获取

本次建模数据来源于网络(本项目撰写人整理而成),数据项统计如下:

数据详情如下(部分展示):

3.数据预处理

3.1 用Pandas工具查看数据

使用Pandas工具的head()方法查看前五行数据:

关键代码:

3.2 数据缺失查看

使用Pandas工具的info()方法查看数据信息:

从上图可以看到,总共有10个变量,数据中无缺失值,共1000条数据。

3.3 数据描述性统计

通过Pandas工具的describe()方法来查看数据的平均值、标准差、最小值、分位数、最大值。

关键代码如下:

4.探索性数据分析

4.1 y变量分布直方图

用Matplotlib工具的hist()方法绘制直方图:

 4.2 相关性分析

从上图中可以看到,数值越大相关性越强,正值是正相关、负值是负相关。

5.特征工程

5.1 建立特征数据和标签数据

关键代码如下:

5.2 数据集拆分

通过train_test_split()方法按照80%训练集、20%测试集进行划分,关键代码如下:

6.构建BP神经网络回归模型

主要使Dense全连接层网络,用于目标回归。

6.1 模型构建

6.2 神经网络的结构信息

通过上图可以看到,神经网络总共有3层,输入层、一个隐藏层、输出层,其中训练的参数为901个。

6.3 神经网络的迭代信息

通过上图可以看到,神经网络每次迭代训练集和验证集的损失值。

6.4 训练集和验证集损失迭代图

通过上图可以看到,随着迭代次数的增加,训练集和验证集损失逐渐减少。

7. 模型评估

7.1评估指标及结果

评估指标主要包括R方、均方误差、解释性方差、绝对误差等等。

从上表可以看出,R方分值为0.9928,说明模型效果较好。

关键代码如下:

7.2 真实值与预测值对比图

从上图可以看出真实值和预测值波动基本一致,模型效果较好。

8.结论与展望

综上所述,本文采用了BP神经网络ANN单隐层算法搭建了回归模型并对模型进行了评估,最终证明了我们提出的模型效果良好。

本次机器学习项目实战所需的资料,项目资源如下:

项目说明:
链接:https://pan.baidu.com/s/1dW3S1a6KGdUHK90W-lmA4w 
提取码:bcbp

Python实现BP神经网络ANN单隐层回归模型项目实战相关推荐

  1. Python实现BP神经网络ANN单隐层分类模型项目实战

    说明:这是一个机器学习实战项目(附带数据+代码+文档+视频讲解),如需数据+代码+文档+视频讲解可以直接到文章最后获取. 1.项目背景 BP(back propagation)神经网络是1986年由R ...

  2. Python基于PyTorch实现BP神经网络ANN回归模型项目实战

    说明:这是一个机器学习实战项目(附带数据+代码+文档+视频讲解),如需数据+代码+文档+视频讲解可以直接到文章最后获取. 1.项目背景 在人工神经网络的发展历史上,感知机(Multilayer Per ...

  3. 单隐层神经网络 python_单隐层前馈神经网络,single hidden-layer feeclforward neural networks,在线英语词典,英文翻译,专业英语...

    补充资料:Hopfield神经网络模型 Hopfield神经网络模型 Hopfield neural network model 收敛于稳定状态或Han加Ing距离小于2的极限环. 上述结论保证了神经 ...

  4. 深度学习笔记:手写一个单隐层的神经网络

    出处:数据科学家养成记 深度学习笔记2:手写一个单隐层的神经网络 笔记1中我们利用 numpy 搭建了神经网络最简单的结构单元:感知机.笔记2将继续学习如何手动搭建神经网络.我们将学习如何利用 num ...

  5. 神经网络与深度学习三:编写单隐层神经网络

    三:编写单隐层神经网络 1 神经网络概述 这篇文章你会学到如何实现一个神经网络,在我们深入学习技术细节之前,现在先大概快速的了解一下如何实现神经网络,如果你对某些内容不甚理解(后面的文章中会深入其中的 ...

  6. 手写单隐层神经网络_鸢尾花分类(matlab实现)

    文章目录 思路 留言 效果 代码 mian split training testing 思路 sigmoid函数做激活函数 二分类交叉熵做损失函数 mian函数:数据预处理 split函数:数据集分 ...

  7. 理解单隐层ReLU神经网络的全局损失

    摘要   对于单一隐层ReLU神经网络,我们展示在每个可微区间内都是全局极小值.这些局部极小是否唯一可微,取决于数据,隐藏神经元的激活模式,网络大小.我们给出一个是否局部极小值存在它们的定义的区域内的 ...

  8. 排序层-深度模型-2015:AutoRec【单隐层神经网络推荐模型】

    AutoRec模型是2015年由澳大利亚国立大学提出的. 它将 自编码器(AutoEncoder ) 的思想和协同过滤结合,提出了一种单隐层神经网络 推荐模型.因其简洁的网络结构和清晰易懂的模型原理, ...

  9. 神经网络——Python实现BP神经网络算法(理论+例子+程序)

    一.基于BP算法的多层感知器模型 采用BP算法的多层感知器是至今为止应用最广泛的神经网络,在多层感知器的应用中,以图3-15所示的单隐层网络的应用最为普遍.一般习惯将单隐层前馈网称为三层感知器,所谓三 ...

最新文章

  1. duilib 显示内存图片
  2. Ubuntu 上安装rust
  3. 老王亲述:我的运维心路历程
  4. TCP核心概念-慢启动,ssthresh,拥塞避免,公平性的真实含义
  5. 第一年的要求 工程系的研究生
  6. c++ windows 点击按钮跳转另一个窗体_PyQt5学习笔记(一)窗体控制
  7. iOS UITableView 移除单元格选中时的高亮状态
  8. MFC关键技术-动态创建
  9. GBTC负溢价扩大至20.44%,创下历史新低
  10. T-SQL象数组一样处理字符串、分割字符串
  11. Mac只能读取不能修改硬盘文件怎么办?
  12. 强中更有强中手:遇到CSDN比吾进步还快的博主
  13. lora网关在openwrt上面的移植
  14. veu-cli 3.0使用教程
  15. AMS中控推送系统安装使用说明
  16. VMware更改虚拟机网卡的MAC地址
  17. 算法-动态规划 Dynamic Programming--从菜鸟到老鸟
  18. GameFramework篇:Network模块案例解读(一:准备工作)
  19. linux下不解包查看tar包文件内容
  20. system76_您需要了解有关System76的开源固件项目的知识

热门文章

  1. 电脑装双系统有什么好处和坏处?
  2. win10 加ip地址映射
  3. 杨辉三角 (java语言)
  4. springboot集成Appollo动态配置
  5. 防火墙虚拟化技术详解(上)
  6. sonix c语言 pdf,松翰c语言(项目)例程(Sonix C language routines (project)).doc
  7. 二维数组作为函数参数的传递
  8. 哈工大计算机学院非全日制,哈尔滨工业大学非全日制研究生上课方式
  9. Python机器学习入门笔记(1)—— Scikit-learn与特征工程
  10. IDEA提示方法参数的快捷键