作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客

本文网址:https://blog.csdn.net/HiWangWenBing/article/details/120597547


目录

前言 深度学习模型框架

第1章 业务领域分析

1.1  步骤1-1:业务领域分析

1.2 步骤1-2:业务建模

1.3 代码实例前置条件

第2章 前向运算模型定义

2.1 步骤2-1:数据集选择

2.2 步骤2-2:数据预处理

2.3 步骤2-3:神经网络建模

2.4 步骤2-4:神经网络输出

第3章 后向运算模型定义

3.1 步骤3-1:定义loss函数

3.2  步骤3-2:定义优化器

3.3 步骤3-3:模型训练

3.4 步骤3-4:模型验证

3.5 步骤3-5:模型可视化

第4章 模型部署

4.1 步骤4-1:模型部署



前言 深度学习模型框架

[人工智能-深度学习-8]:神经网络基础 - 机器学习、深度学习模型、模型训练_文火冰糖(王文兵)的博客-CSDN博客_神经网络与深度学习第1章 白话机器学习[人工智能-综述-4]:白话深度学习-- 无基础小白都能理解机器学习的核心概念_文火冰糖(王文兵)的博客-CSDN博客[人工智能-深度学习-7]:神经网络基础 - 人工神经网络ANN_文火冰糖(王文兵)的博客-CSDN博客第2章 机器学习的模型与步骤2.1深度学习与机器学习上述三个概念中:人工智能的概念最广泛,所以有能机器具有类”人“一样智能的技术、非技术(如伦理)的领域,都是人工智能。机器获取“智能”的一个重要手段是,机器具备“自我学习”的能力,...https://blog.csdn.net/HiWangWenBing/article/details/120462734

第1章 业务领域分析

1.1  步骤1-1:业务领域分析

1.2 步骤1-2:业务建模

1.3 代码实例前置条件

#环境准备
import numpy as np              # numpy数组库
import math                     # 数学运算库
import matplotlib.pyplot as plt # 画图库import torch             # torch基础库
import torch.nn as nn    #  torch神经网络库print("Hello World")
print(torch.__version__)
print(torch.cuda.is_available())
Hello World
1.8.0
False

第2章 前向运算模型定义

2.1 步骤2-1:数据集选择

这里不需要采用已有的开源数据集,只需要自己构建数据集即可。

#2-1 准备数据集
x_sample = np.linspace(0, 5, 64)noise = np.random.randn(64)
y_sample = 2 * x_sample + 1 + noisey_line = 2 * x_sample + 1#可视化数据
plt.scatter(x_sample, y_sample)
plt.plot(x_sample, y_line,'red')

2.2 步骤2-2:数据预处理

(1)把numpy一维数据转换成二维样本数据

(2)把numpy样本数据转换成torch样本数据

# 2-2 对数据预处理
print("Numpy原始样本的形状")
print(x_sample.shape)
print(y_sample.shape)# 把一维线性数据转换成二维样本数据,每个样本数据为一维
print("\nNumpy训练样本的形状")
x_numpy = x_sample.reshape(-1, 1).astype('float32')
y_numpy = y_sample.reshape(-1, 1).astype('float32')
print(x_numpy.shape)
print(y_numpy.shape)# numpy样本数据转换成pytorch样本数据
print("\ntorch训练样本的形状")
x_train = torch.from_numpy(x_numpy)
y_train = torch.from_numpy(y_numpy)print(x_train.shape)
print(y_train.shape)plt.scatter(x_train, y_train)
Numpy原始样本的形状
(64,)
(64,)Numpy训练样本的形状
(64, 1)
(64, 1)torch训练样本的形状
torch.Size([64, 1])
torch.Size([64, 1])

Out[3]:

<matplotlib.collections.PathCollection at 0x1fdc56524f0>

2.3 步骤2-3:神经网络建模

这里的神经网络模型是单输入(size=1)、单输出(size=1)、无激活函数的线性神经元。

# 2-3 定义网络模型
# in_features:  输入数据的size = 1
# out_features: 输处数据的size = 1
# bias = True: 打开偏置参数B
print("定义并初始化模型")
model = nn.Linear(in_features=1, out_features=1)
print(model)print("\n获取W,B参数的初始化值(随机产生)")
w,b = model.parameters()
print(w)
print(b)
定义并初始化模型
Linear(in_features=1, out_features=1, bias=True)获取W,B参数的初始化值(随机产生)
Parameter containing:
tensor([[-0.3860]], requires_grad=True)
Parameter containing:
tensor([-0.7404], requires_grad=True)

备注:

神经网络中w,b参数的初始值是随机初始,每次调用nn.Linear创建神经网络,W, B参数都不一样。

2.4 步骤2-4:神经网络输出

# 2-4 定义网络预测输出
y_pred = model.forward(x_train)
print(y_pred.shape)
torch.Size([64, 1])

备注:输出是64个样本的一维数据

第3章 后向运算模型定义

3.1 步骤3-1:定义loss函数

这里采用的MSE loss函数

# 3-1 定义loss函数:
# loss_fn= MSE loss
loss_fn = nn.MSELoss()
print(loss_fn)
MSELoss()

3.2  步骤3-2:定义优化器

# 3-2 定义优化器
Learning_rate = 0.01     #学习率# optimizer = SGD: 基本梯度下降法
# parameters:指明要优化的参数列表
# lr:指明学习率
optimizer = torch.optim.SGD(model.parameters(), lr = Learning_rate)
print(optimizer)
SGD (
Parameter Group 0dampening: 0lr: 0.01momentum: 0nesterov: Falseweight_decay: 0
)

备注:优化器需要指明优化的参数列表和学习率

3.3 步骤3-3:模型训练

# 3-3 模型训练
# 定义迭代次数
epochs = 500loss_history = [] #训练过程中的loss数据
w_history = []    #训练过程中的w参数值
b_history = []    #训练过程中的b参数值for i in range(0, epochs):#(1) 前向计算y_pred = model(x_train)#(2) 计算lossloss = loss_fn(y_pred, y_train)#(3) 反向求导loss.backward()#(4) 反向迭代optimizer.step()#(5) 复位优化器的梯度optimizer.zero_grad()    w, b = model.parameters()  loss_history.append(loss.item()) w_history.append(w.item())b_history.append(b.item())if(i % 100 == 0):print('epoch {}  loss {:.4f}'.format(i, loss.item())) print("\n迭代完成")
w, b = model.parameters()  #parameters()返回的是一个迭代器指向的对象
print("\n训练后w参数值:", w, w.item())
print("\n训练后b参数值:", b, b.item())
print("\n最小损失数值 :", loss, loss.item())
print(len(loss_history))
print(len(w_history))
print(len(b_history))
epoch 0  loss 42.0689
epoch 100  loss 1.0441
epoch 200  loss 1.0440
epoch 300  loss 1.0439
epoch 400  loss 1.0439迭代完成训练后w参数值: Parameter containing:
tensor([[1.8530]], requires_grad=True) 1.8529784679412842训练后b参数值: Parameter containing:
tensor([1.2702], requires_grad=True) 1.2701895236968994最小损失数值 : tensor(1.0439, grad_fn=<MseLossBackward>) 1.0438624620437622
500
500
500

3.4 步骤3-4:模型验证

NA

3.5 步骤3-5:模型可视化

# 3-4 可视化模型数据
#model返回的是总tensor,包含grad_fn,用data提取出的tensor是纯tensor
y_pred = model.forward(x_train).data.numpy().squeeze()
print(x_train.shape)
print(y_pred.shape)
print(y_line.shape)plt.scatter(x_train, y_train, label='SampleLabel')
plt.plot(x_train, y_pred, label='Predicted')
plt.plot(x_train, y_line, label='Line')plt.legend()
plt.show()
torch.Size([64, 1])
(64,)
(64,)

#显示loss的历史数据
plt.plot(loss_history, "r+")
plt.title("loss value")

#显示w参数的历史数据
plt.plot(w_history, "r+")
plt.title("w value")

#显示b参数的历史数据
plt.plot(b_history, "r+")
plt.title("b value")

第4章 模型部署

4.1 步骤4-1:模型部署

NA


作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客

本文网址:https://blog.csdn.net/HiWangWenBing/article/details/120597547

[Pytorch系列-24]:神经网络基础 - 单个无激活函数的神经元实现简单线性回归 - 1相关推荐

  1. pytorch卷积神经网络_知识干货-动手学深度学习(pytorch)-06 卷积神经网络基础

    卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充.步幅.输入通道和输出通道的含义. 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据. 二维互相关运 ...

  2. 动手学深度学习PyTorch版-循环神经网络基础

    循环神经网络基础 从零开始实现循环神经网络 import torch import torch.nn as nn import time import math import sys sys.path ...

  3. 深度学习基础之-2.3简单的神经网络(单个输入/多个输入)做线性回归+特征值归一化

    单个输入Demo 输入层 它在输入层只接受一个输入,经过参数w,b的计算后,直接输出结果.这样一个简单的"网络",只能解决简单的一元线性回归问题,而且由于是线性的,我们不需要定义激 ...

  4. [Pytorch系列-30]:神经网络基础 - torch.nn库五大基本功能:nn.Parameter、nn.Linear、nn.functioinal、nn.Module、nn.Sequentia

    作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客 本文网址:https://blog.csdn.net/HiWangWenBing/article/detai ...

  5. [Pytorch系列-35]:卷积神经网络 - 搭建LeNet-5网络与CFAR10分类数据集

    作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客 本文网址:https://blog.csdn.net/HiWangWenBing/article/detai ...

  6. PyTorch框架学习十——基础网络层(卷积、转置卷积、池化、反池化、线性、激活函数)

    PyTorch框架学习十--基础网络层(卷积.转置卷积.池化.反池化.线性.激活函数) 一.卷积层 二.转置卷积层 三.池化层 1.最大池化nn.MaxPool2d 2.平均池化nn.AvgPool2 ...

  7. 动手学深度学习(PyTorch实现)(六)--卷积神经网络基础

    卷积神经网络基础 1. 二维卷积层 1.1 二维互相关运算 1.2 互相关运算与卷积运算 1.3 特征图与感受野 2. 填充与步幅 2.1 填充 2.2 步幅 3. 多通道 3.1 多输入通道 3.2 ...

  8. [Pytorch系列-41]:卷积神经网络 - 模型参数的恢复/加载 - 搭建LeNet-5网络与MNIST数据集手写数字识别

    作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客 本文网址:https://blog.csdn.net/HiWangWenBing/article/detai ...

  9. 卷积神经网络基础(最详细)+如何写代码(Pytorch)+推荐学习顺序+心得感悟

    目录 卷积神经网络 为什么要使用卷积神经网络? 神经网络中的各层 卷积操作 权重共享 填充 步幅 3 维数据的卷积运算 激活函数 输出层的激活函数 卷积层的激活函数 池化 重叠池化 池化层的特征 BN ...

  10. [Pytorch系列-61]:循环神经网络 - 中文新闻文本分类详解-3-CNN网络训练与评估代码详解

    作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客 本文网址:https://blog.csdn.net/HiWangWenBing/article/detai ...

最新文章

  1. 加速数据中心变革,Xilinx推出软件定义、硬件加速型 Alveo SmartNIC
  2. 开个坑, 写个阿里云开放储存服务(OSS)的C++版SDK以及客户端
  3. centos7 redis5.0以前版本 部署集群示例 - 第二篇
  4. Python跨文件引用模块
  5. 视频压缩软件如何下载
  6. CnPack20090801更新包
  7. CV520国产替代Ci521 13.56MHz 非接触式读写器芯片
  8. 计算机网络的产生与发展可分为哪四个阶段,计算机网络形成与发展大致分为如下4个阶段...
  9. 计算机安装系统后鼠标无法使用,重装系统鼠标键盘不能用怎么办 重装系统后鼠标键盘不能用解决办法...
  10. ZZULIOJ-1007鸡兔同笼
  11. 怎么利用计算机自带功能删除垃圾,如何清理电脑垃圾,教您如何彻底清除系统垃圾...
  12. 新战投入场,苏宁易购迎来破局发展新开端
  13. web文件上传思路(一句话muma)
  14. C#实现程序一次打开两个窗口,两个窗口分别放置在两个屏幕
  15. 基于订单号可重入的交易系统接口设计探讨
  16. magicmatch java_签名图片一键批量生成 使用Java的Webmagic爬虫实现
  17. Github如何快速找到优秀开源项目
  18. 汉堡大学计算机科学,汉堡大学 - 录取条件,专业,排名,学费「环俄留学」
  19. 喵的Unity游戏开发之路 - 推球:游戏中的物理
  20. HC110110019 FTP原理与配置

热门文章

  1. 数论—乘法逆元—费马小定理
  2. 重走机器学习之路——形而上者谓之道
  3. 4k纸是几厘米乘几厘米_4k纸多大(4k纸有几张a4纸大)
  4. matlab剪切板中内容清除,清除剪贴板的内容
  5. 【JZOJ】 【NOIP2014】【模拟试题】保镖排队
  6. win10获得system权限(超级管理员)
  7. 【接口测试实战(三)】接口测试用例的编写
  8. Ubuntu 最好用的CHM阅读器KchmViewer
  9. Allegro削铜皮详细操作指导
  10. HTML+CSS静态页面网页设计作业——咖啡网站pc端带轮播js (5页) 学生酒水网页作业, 生鲜水果网页作业成品, 零食小吃网页作 美食网页业模板