【PyTorch】Optim 优化器
文章目录
- 五、Optim 优化器
- 1、SGD
五、Optim 优化器
参考文档:https://pytorch.org/docs/stable/optim.html
1、SGD
参考文档:https://pytorch.org/docs/stable/generated/torch.optim.SGD.html#torch.optim.SGD
import torch.optim
import torchvision
from torch import nn
from torch.nn import Sequential, Conv2d, MaxPool2d, Flatten, Linear, CrossEntropyLoss
from torch.utils.data import DataLoaderdataset = torchvision.datasets.CIFAR10("../data", train=False, transform=torchvision.transforms.ToTensor(),download=True)dataloader = DataLoader(dataset, batch_size=1)class Tudui(nn.Module):def __init__(self):super(Tudui, self).__init__()self.model1 = Sequential(Conv2d(3, 32, 5, padding=2),MaxPool2d(2),Conv2d(32, 32, 5, padding=2),MaxPool2d(2),Conv2d(32, 64, 5, padding=2),MaxPool2d(2),Flatten(),Linear(1024, 64),Linear(64, 10))def forward(self, x):x = self.model1(x)return xloss = CrossEntropyLoss()tudui = Tudui()optim = torch.optim.SGD(tudui.parameters(), lr=0.01) # 优化器
For循环1:
for data in dataloader:imgs, targets = dataoutput = tudui(imgs)result_loss = loss(output, targets)optim.zero_grad() # 清零result_loss.backward() # 反向传播optim.step() # 调优print(result_loss)
Files already downloaded and verified
tensor(2.3287, grad_fn=<NllLossBackward0>)
tensor(2.3879, grad_fn=<NllLossBackward0>)
tensor(2.2987, grad_fn=<NllLossBackward0>)
...
For循环2:
for epoch in range(20):running_loss = 0.0for data in dataloader:imgs, targets = dataoutput = tudui(imgs)result_loss = loss(output, targets)optim.zero_grad()result_loss.backward()optim.step()running_loss += result_lossprint(running_loss)
Files already downloaded and verified
tensor(18592.4395, grad_fn=<AddBackward0>)
tensor(16118.4756, grad_fn=<AddBackward0>)
tensor(15450.5898, grad_fn=<AddBackward0>)
...
【PyTorch】Optim 优化器相关推荐
- [源码解析] PyTorch分布式优化器(1)----基石篇
[源码解析] PyTorch分布式优化器(1)----基石篇 文章目录 [源码解析] PyTorch分布式优化器(1)----基石篇 0x00 摘要 0x01 从问题出发 1.1 示例 1.2 问题点 ...
- 简单粗暴PyTorch之优化器
优化器 一.优化器属性与方法 二.pytorch中的优化器 一.优化器属性与方法 pytorch的优化器: 管理并更新模型中可学习参数的值,使得模型输出更接近 真实标签 导数:函数在指定坐标轴上的变化 ...
- PyTorch 中 torch.optim优化器的使用
一.优化器基本使用方法 建立优化器实例 循环: 清空梯度 向前传播 计算Loss 反向传播 更新参数 示例: from torch import optim input = ..... optimiz ...
- 『PyTorch』第十一弹_torch.optim优化器 每层定制参数
一.简化前馈网络LeNet 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 im ...
- Pytorch的优化器推荐
Pytorch中有四种常用的优化器,SGD.Momentum.RMSProp.Adam,那我们该如何选择呢. 1.SGD 参数介绍: --lr(float) :学习率 --momentum(float ...
- 【Pytorch的优化器总结归纳】
文章目录 1.SGD(随机梯度下降) 2.ASGD(随机平均梯度下降) 3.AdaGrad算法 4.AdaDelta算法 5.Rprop(弹性反向传播) 6.RMSProp(Root Mean Squ ...
- Pytorch的优化器总结归纳
pytorch的几类优化器 笔记总结自: https://pytorch.org/docs/stable/optim.html 在博客https://www.jianshu.com/p/39dac1e ...
- Pytorch:优化器、损失函数与深度神经网络框架
Pytorch: 优化器.损失函数与深度神经网络框架 Copyright: Jingmin Wei, Pattern Recognition and Intelligent System, Schoo ...
- PyTorch(13)---优化器_随机梯度下降法
优化器:随机梯度下降法 反向传播-梯度下降 import torch import torchvision from torch import nn from torch.nn import Conv ...
最新文章
- main方法为什么是静态的
- IccFileHandler和IccRecords
- php管道邮件,php进程通信-PIPE管道通信
- 牛客多校1 - Infinite Tree(虚树+换根dp+树状数组)
- 关于PHP默认Expires: Thu, 19 Nov 1981...的故事
- android+使用bmob冲突,bmob开发android遇到的问题
- 栈中pop和top的区别是什么呢?用队列实现一个栈,Python语言
- 一致 先验分布 后验分布_分布式下的数据一致性问题
- 1、ARM嵌入式系统:KL25Z128 初始化整体流程
- 算法-猴子运香蕉,看谁剩的多,N种解法
- 猫(Modem)和路由器有什么区别?
- 【Microsoft Azure 的1024种玩法】二十八. 基于Azure Cloud搭建IPS入侵防御系统实现安全流量实时分析
- 快手打开后不显示画面_快手打开不显示图像怎么办
- 四足机器人站立姿态解算-几何方法
- 移动端web设计尺寸_手机移动端网页按钮设计尺寸及间距规范
- R星安装不完全无法载入social club(错误码:1)解决办法
- CSS 画一个圆的背景 样式
- android连接ios热点超时,Android19连接iOS13个人热点失败
- ShmooCon IX: Moloch: A New And Free Way To Index Your Packet Capture Repository
- Ubuntu20.04安装步骤详细指导
热门文章
- 串口控制器,电平脉冲触发,顺序轮换,间歇轮换,电磁阀继电器流水,8路,16路,32路
- 腾讯云轻量应用服务器月流量包用完超额了怎么计费?
- R语言ggplot2可视化改变柱状图(条形图)的填充色实战:默认的颜色为灰色、改变柱状图(条形图)的填充色、设置每个柱子(条形)使用不同的色彩
- bellman_ford算法 由边数限制的最短路
- 获取各大电商平台商品详情api(api接口)
- Fatal error: Cannot use 'Object' as class name as it is reserved in xxx/Object.php on line 77
- Python十分钟轻松入门
- 当小内存遇上大量数据,你该怎么解决这个问题?
- CSS 第005 背景-理论
- Android:检查通知权限并跳转到通知设置界面