主要记录一下 torch.optim.LBFGS 的用法

源码如下

class LBFGS(Optimizer):"""Implements L-BFGS algorithm, heavily inspired by `minFunc<https://www.cs.ubc.ca/~schmidtm/Software/minFunc.html>`... warning::This optimizer doesn't support per-parameter options and parametergroups (there can be only one)... warning::Right now all parameters have to be on a single device. This will beimproved in the future... note::This is a very memory intensive optimizer (it requires additional``param_bytes * (history_size + 1)`` bytes). If it doesn't fit in memorytry reducing the history size, or use a different algorithm.Arguments:lr (float): learning rate (default: 1)max_iter (int): maximal number of iterations per optimization step(default: 20)max_eval (int): maximal number of function evaluations per optimizationstep (default: max_iter * 1.25).tolerance_grad (float): termination tolerance on first order optimality(default: 1e-5).tolerance_change (float): termination tolerance on functionvalue/parameter changes (default: 1e-9).history_size (int): update history size (default: 100).line_search_fn (str): either 'strong_wolfe' or None (default: None)."""def __init__(self,params,lr=1,max_iter=20,max_eval=None,tolerance_grad=1e-7,tolerance_change=1e-9,history_size=100,line_search_fn=None):......

其中 max_iter (int) 是指 lbfgs 内部优化迭代时的步数,
max_eval 才是通常理解的最大迭代步数, 比如 max_eval=100, 那么就是指 lbfgs 迭代 100 步后, 外部的程序才会终止.

记录 torch.optim.LBFGS相关推荐

  1. pytorch 使用 torch.optim.LBFGS() 优化神经网络

    pytorch的优化器中,如果我们直接像调用其他优化器一样调用LBFGS,如下形式: criterion = nn.MSELoss() optimizer = torch.optim.LBFGS(pa ...

  2. PyTorch官方中文文档:torch.optim 优化器参数

    内容预览: step(closure) 进行单次优化 (参数更新). 参数: closure (callable) –...~ 参数: params (iterable) – 待优化参数的iterab ...

  3. torch的拼接函数_从零开始深度学习Pytorch笔记(13)—— torch.optim

    前文传送门: 从零开始深度学习Pytorch笔记(1)--安装Pytorch 从零开始深度学习Pytorch笔记(2)--张量的创建(上) 从零开始深度学习Pytorch笔记(3)--张量的创建(下) ...

  4. PyTorch: torch.optim 的6种优化器及优化算法介绍

    import torch import torch.nn.functional as F import torch.utils.data as Data import matplotlib.pyplo ...

  5. 【torch.optim】优化器的使用 / 学习率的调整 / SWA策略

    torch.optim torch.optim是实现各种优化算法的包.大多数常用的方法都已得到支持,而且接口足够通用,因此将来还可以轻松集成更复杂的方法. 优化器 使用优化器 为了使用一个优化器,必须 ...

  6. PyTorch 笔记(18)— torch.optim 优化器的使用

    到目前为止,代码中的神经网络权重的参数优化和更新还没有实现自动化,并且目前使用的优化方法都有固定的学习速率,所以优化函数相对简单,如果我们自己实现一些高级的参数优化算法,则优化函数部分的代码会变得较为 ...

  7. pytorch torch.optim.Optimizer

    API 1)Optimizer CLASS torch.optim.Optimizer(params, defaults) 参数 描述 params (iterable) an iterable of ...

  8. 优化器:torch.optim

    原文:pytorch-book/chapter4.ipynb at master · chenyuntc/pytorch-book · GitHub 4.2 优化器 PyTorch将深度学习中常用的优 ...

  9. pytorch 中 torch.optim.Adam 方法的使用和参数的解释

    class torch.optim.Adam(params, lr=0.001, betas=(0.9, 0.999), eps=1e-08, weight_decay=0)[source] 实现Ad ...

最新文章

  1. CoverageMeter中关于“line coverage”不准确的解释
  2. python3手机版下载-Python3中文版下载
  3. http中的请求头各部分都是什么意思_30张图讲解HTTP,不信你还不会
  4. Oracle 通过字段名查询其所在的表
  5. 信使(信息学奥赛一本通-T1376)
  6. session-path
  7. 24. cc.Director与资源加载策略
  8. Android应用程序四大组件分别是什么?各个组件所起到的作用是什么?
  9. Windows系统下使用Wampserver64快捷安装GLPI9.4.5开源IT资产管理软件(图解)
  10. 服务器输出字符流数据到浏览器 使用println浏览器无显示
  11. 使用CMSTP绕过AppLocker
  12. 选课系统软件测试计划规划,职业生涯规划测评系统 测评软件
  13. nokia专业显示器测试软件,液晶显示器显示屏NOkia幕检测工具
  14. linux整盘封装生成iso,一键自安装ISO封装打包脚本 | 聂扬帆博客
  15. 大家玩突袭2吗?呵呵我有秘籍哟!
  16. 清华生命学院 2017 就业报告:就业率仅 51%
  17. 自然语言处理系列二十二》词性标注》词性标注原理》词性介绍
  18. 推荐100首值得听的英文歌【ZT】
  19. 实时渲染的三种渲染方法介绍
  20. win764位不能改计算机名,win7 64位旗舰版系统无法修改MAC的原因和解决

热门文章

  1. 高级数据结构之赫夫曼树
  2. Free2022春节虎年微信祝福语拜年分享小程序源码
  3. 四、Testbench
  4. Datawhale数据挖掘 数据分析笔记
  5. 总结了一下小半辈子发现三点:
  6. cv2.imread
  7. Linux命令-按照与使用(15)终端登陆前欢迎界面设置
  8. uniapp简单搞定支付传统的开发支付需要前后端做很多工作,各种参数的处理,签名,秘钥的验证校验等,尤其是涉及到多种不同的平台支付,更是繁琐;而且以往的支付是由后端主导的,如果后端是个菜鸡,那么做这
  9. C端和B端的差异分析
  10. 华为业务板块_华为三大业务介绍