INTERNATIONAL
TRANSACTIONS
IN OPERATIONAL
RESEARCH

Intl. Trans. in Op. Res. 00 (2020) 1–24
DOI: 10.1111/itor.12889
A unifified analysis of stochastic gradient-free Frank–Wolfe methods
Jiahong Guo, Huiling Liu and Xiantao Xiao∗

School of Mathematical Sciences, Dalian University of Technology, Dalian 116023, China

E-mail: gjh0722@mail.dlut.edu.cn [Guo]; lhl9797@mail.dlut.edu.cn [Liu]; xtxiao@dlut.edu.cn [Xiao] Received 25 December 2019; received in revised form 29 July 2020; accepted 5 October 2020

摘要

在本文中,我们考虑一类受约束的随机程序,其中假设目标中随机函数的梯度以及对可行集的投影被禁止。 我们提出了一类无小批量梯度的Frank-Wolfe方法。 在温和条件下,我们对凸和非凸问题都进行统一的收敛分析。

关键词:随机Frank-Wolfe法; 无梯度 约束随机规划 收敛分析

介绍

在本文中,我们考虑以下约束随机优化问题

minx∈Cf(x):=Eξ[F(x,ξ)](1)

及其以

minx∈Cφ(x ):= f(x)+ r(x),(2)

其中C⊂Rn是直径为D的凸紧集::maxx,y∈Cx − y,r:Rn→R是a(pos 几乎不可微的凸函数ξ:→是在概率空间(,F,P)和F上定义的随机向量:Rn×→R.我们假设期望E [F(x, ξ)]定义明确,每个x∈C的值都是有限的,解集X ∗是非空的。

最近,问题(1)(包括凸和非凸设置)引起了随机优化和机器学习的极大兴趣。在信号处理(Jensen等,2012)和统计数据(Hastie等,2009)中,正则化术语用于避免数据过拟合或保证稀疏性,这引起了对问题(2)的关注。

约束随机问题(1)和(2)已经被许多研究人员研究。解决约束随机问题(1)的普遍方法是随机投影梯度法(SPG)。在每次迭代中,SPG算法都需要计算目标函数的随机梯度以及对可行集的投影。

为了解决问题(2),提出并讨论了SPG的许多变体,例如Ghadimi等人(2016)讨论并分析了随机近端梯度法的收敛性和收敛速度。 通过在每次迭代中获取一小批样本进行大规模的非凸优化。然而,在许多问题中,随机函数F相对于x的梯度的显式难以计算或无法获得。

对于这种情况,无梯度方法已得到越来越多的应用,并且也得到了广泛的研究。例如,Ghadimi和Lan(2013)提出了一种用于非凸随机规划的随机无梯度随机方法,并证明该方法的收敛速度为O(√1k)。 Nesterov和Spokoiny(2017)使用高斯平滑技术提出了几种无随机梯度的方法,并针对不同类别的凸优化问题推导了一些复杂度边界。

在机器学习中,无梯度方法已应用于使用黑盒模型攻击深度神经网络的方法(Chen等人,2017; Vu等人,2017; Ji等人,2019; Tu等人2019) 。最近,Larson等人。 (2019)研究并讨论了无梯度优化方法,并给出了凸和非凸问题的一些关键结果。

对于科学和工程学中的某些问题,随机梯度的计算可能不昂贵,但投影步骤的成本可能很高。在这种情况下,Frank-Wolfe方法(也称为条件梯度方法)更为实用。它避免了投影步骤,只需要访问线性最小化预言。经典的Frank-Wolfe方法最初是由Frank和Wolfe(1956)提出的,最近在文献中进行了广泛的研究(Jaggi,2013; Harchaoui等,2015; Freund和Grigas,2016)。

在那些作品,它们都衍生的O(1K),用于适当选择stepsizes收敛的速率。 Hazan和Kale(2012)讨论了在线Frank-Wolfe方法,并应用这些方法解决了在线光滑和非光滑凸优化的随机问题,从而获得了非光滑情况下的收敛速度O(1k 13)。 Garber和Hazan(2016)考虑了一种新的Frank-Wolfe变体来解决随机非光滑和凸问题,并得出了更好的收敛速度O(√1k)。

该变体还被用于解决随机平滑和强凸优化问题,并获得了线性收敛速度。对于问题(1)的非凸情况,Lacoste-Julien(2016)和Reddi等人研究了确定性的Frank-Wolfe算法。 (2016年)使用方差减少技术提高了随机Frank-Wolfe方法的收敛速度。 Yu等。 (2017)研究了广义条件梯度算法,并建立了其收敛性以解决凸和非凸复合优化问题。 Mokhtari等人提出了一种随机Frank-Wolfe方法来解决随机优化问题(1)。 (2020)。他们应用了梯度平均技术,该技术每次迭代仅需进行一次随机梯度计算即可减少梯度近似的噪声。 Nesterov(2018)进一步扩展了Frank-Wolfe方法来解决复合凸优化问题,并提供了收敛性分析。此方法允许原始对偶解决方案。

Ghadimi(2019)建立了非凸组合优化问题的Frank–Wolfe型方法的收敛性,并提出了Frank–Wolfe方法的随机变量。Balasubramanian和Ghadimi(2018)以及Sahu等人(2019)将一些随机零阶Frank–Wolfe算法推广到非凸和凸优化问题。

在本文中,我们特别感兴趣的情况是:

(i)目标中随机函数的梯度求值是禁止的,甚至是不可能的;

(ii)投影到可行集C上的代价是昂贵的。

提出了一类求解问题(1)和(2)的无梯度随机Frank-Wolfe方法。在目标为Lipschitz连续且梯度为H¨older连续的条件下,建立了关于目标约简的几乎必然收敛和期望收敛速度,以及关于Frank–Wolfe间隙的非凸收敛结果。

本文的结果与Ghadimi(2019)和Balasubramanian and Ghadimi(2018)建立的收敛速度密切相关。然而,我们的论文和那些参考文献有一些不同之处。Ghadimi(2019)分析了基于随机梯度的随机Frank–Wolfe方法在H¨older梯度连续性和梯度方差有界条件下的收敛结果。

相比之下,我们的方法利用高斯平滑近似和随机函数值来构造近似的随机梯度。Balasubramanian和Ghadimi(2018)研究了问题(1)的随机零阶Frank–Wolfe方法在Lipschitz梯度连续性和梯度方差有界条件下的收敛性。我们的算法(算法1)是该方法的一个小批量变体(Balasubramanian和Ghadimi,2018),因此分析更为复杂。

本文的分析是在较弱的假设(H¨older梯度连续性)下进行的。特别是,如果我们选择H¨older参数δ=1,我们的收敛结果可以恢复参考文献中的收敛速度(Balasubramanian和Ghadimi,2018)。

最后,在保证几乎肯定收敛的前提下,建立了我们的收敛速度,这在相关文献中没有讨论。

总之,本文的主要贡献如下:

•现有的随机Frank-Wolfe方法大多是在随机函数F的梯度为Lipschitz连续的条件下进行分析的。我们的收敛性分析是在一个较弱的条件下建立的,即随机函数F的梯度是H¨older连续的。此外,在我们的分析中不需要标准梯度方差有界的假设。

•根据随机样本的总预算,在每次迭代中抽取小批量样本。

•对于光滑问题(1)和复合问题(2),我们的收敛结果在凸和非凸情况下都是统一的。

本文的其余部分组织如下。

第二节介绍了高斯平滑函数和一些关键引理。

在第三节中,我们提出了求解问题(1)和(2)的随机无梯度Frank–Wolfe方法,并分析了它们在凸环境下的几乎必然收敛性和收敛速度。

第四节讨论了非凸条件下的收敛结果。

最后,在第5节中,我们报告了一些初步的数值结果。

第二节略

3.凸优化收敛分析

在本节中,我们提出了求解问题(1)和问题(2)的随机无梯度Frank–Wolfe方法,并分析了在随机函数F的凸性条件下所提出方法的收敛性。

随机无梯度Frank-Wolfe方法的统一分析相关推荐

  1. 梯度下降算法被高估了!了解有趣的无梯度神经网络优化方法

    全文共3284字,预计学习时长9分钟 图源:unsplash 梯度下降算法于1847年因柯西(Cauchy)而问世,Haskell Curry在1944年进一步将其阐述为非线性优化问题.到现在,梯度下 ...

  2. 无梯度强化学习:使用Numpy进行神经进化

    作者|Jacob Gursky 编译|VK 来源|Towards Data Science 介绍 如果我告诉你训练神经网络不需要计算梯度,只需要前项传播你会怎么样?这就是神经进化的魔力!同时,我要展示 ...

  3. 超越最新无监督域自适应方法,研究人员提轻量CNN新架构OSNet

    作者 | Kaiyang Zhou, Xiatian Zhu, Yongxin Yang, Andrea Cavallaro, and Tao Xiang 译者 | TroyChang 编辑 | Ja ...

  4. 《预训练周刊》第36期: 谷歌提出梯度最大化增长方法GradMax

    No.36 智源社区 预训练组 预 训 练 研究 观点 资源 活动 关于周刊 本期周刊,我们选择了11篇预训练相关的论文,涉及优化器.稀疏语言模型.神经网络结构.自增长网络.视频摘要.多模态.机器翻译 ...

  5. 用于稠密检索的无监督领域适应方法—Generative Pseudo Labeling (GPL)

    ©作者 | 刘璐 学校 | 北京邮电大学 研究方向 | 问题生成与QA 论文标题: GPL: Generative Pseudo Labeling for Unsupervised Domain Ad ...

  6. 梯度下降优化方法'原理_优化梯度下降的新方法

    梯度下降优化方法'原理 The new era of machine learning and artificial intelligence is the Deep learning era. It ...

  7. 拯救万千学子于水深火热之中!Facebook开源无梯度优化工具

    乾明 发自 凹非寺 量子位 出品 | 公众号 QbitAI 机器学习啥最苦?十有八九找参数! 不少研究生,都被卡在这个环节上,久久不能毕业. 现在,圣诞节前,有了一个好消息! Facebook宣布,开 ...

  8. JAVA实现随机无重复数字功能

    本文给大家介绍如何在JAVA中实现随机无重复数字的功能.如果您是初学者的话,有必要看一看这篇文章,因为这个功能一般会在面试中遇到.包括我本人在招聘人员的时候也喜欢拿这个问题去问别人,主要看一看考虑问题 ...

  9. 【机器学习】机器学习(一、二):批梯度下降法、随机/增量梯度下降法、最小二乘法

    前言: STANFORD机器学习公开课第1.2课(Andrew Ng主讲),本文记录学习过程,整理学习笔记,并将MATLAB代码共享,以便回顾. 简介: 本节介绍机器学习中常用的线性回归模型,鉴于是第 ...

  10. adam算法_梯度下降/批量(随机)梯度下降/动量法/RMSporp/Adam算法汇总

    我们在机器学习的过程中,当我们构建好我们的模型后要对输出构建损失函数.然后要不断的减小损失函数的值来不断更新优化我们模型中的参数. 那么如何优化我们的参数呢? 梯度下降法: 对1到M这些给出的数据计算 ...

最新文章

  1. 阿里某新员工感慨:入职阿里三个月生活一团糟,想辞职休息
  2. zabbix3.2自动发现批量监控redis端口状态
  3. 看来Kubernetes将一统天下?Docker也无法幸免
  4. 军队计算机技术职称考试 类别,军队人员参加计算机考试科目设置和报考规定...
  5. 2015国产手机圈成绩单
  6. 十分钟搞懂什么是CGI
  7. ffplay.c学习-5-视频输出和尺⼨变换
  8. mysql查询递增列_mysql在查询结果列表前添加一列递增的序号列(最简)
  9. java list应用_java中list集合的应用
  10. 图片服务 - thumbor设置背景色
  11. hive执行更新和删除操作
  12. 杰控组态自定义串口通讯的经验
  13. 手趣以“全网通址”深耕移动商务 帮助企业厚积而薄发
  14. 优麒麟双系统启动引导修改默认项更改教程
  15. excel 嵌套html,excel 多层if嵌套怎么优化
  16. 在linaro中安装opencv
  17. 1.爬虫基础——了解html什么是爬虫
  18. 看《紫川》小说的思考
  19. 基于XQ6657Z35-EVM开发平台上TI TMS320C6657 TLV320AIC3206音频设计
  20. jadx-gui-1.4.4 反编译工具使用教程

热门文章

  1. 开启代理后,微软商城、Skype、OneNote等无法正常使用
  2. 搜狗浏览器收藏夹在什么位置?搜狗浏览器收藏夹路径在哪?
  3. VBA--类模块学习
  4. 大规模定制(Mass Customization,MC)
  5. 阻止YouTube视频在Chrome中自动播放
  6. 酷派+k1+rom+android+4.4,酷派新品牌怎么样?ivvi K1全面评测
  7. django 1.11 文档
  8. 快捷方式图标变白完美解决
  9. php文字转语音amr,Android插件,TTS语音合成(文字转化语音)。
  10. hive 漫威the_漫威系列的观看顺序