东边有棵树的博客# 原问题与对偶问题的定义和关系

(1)原问题与对偶问题定义

一个优化问题的原问题和对偶问题定义如下:

原问题:
最 小 化 : f ( w ) 限 制 条 件 : { g i ( w ) ≤ 0 i = 1 ⋯ K h i ( w ) = 0 i = 1 ⋯ M (1) 最小化:~~~f(w)\\限制条件: \begin{cases} g_i(w)\leq0~~~i=1\cdots K\\ h_i(w)=0~~~i=1\cdots M \end{cases}\tag{1} 最小化:   f(w)限制条件:{gi​(w)≤0   i=1⋯Khi​(w)=0   i=1⋯M​(1)
定义一函数 L ( w , α , β ) L(w,\alpha,\beta) L(w,α,β)为:
L ( w , α , β ) = f ( w ) + ∑ i = 1 K α i g i ( w ) + ∑ i = 1 M β i h i ( w ) (2) L(w,\alpha,\beta)=f(w)+ \sum_{i=1}^K\alpha_ig_i(w)+\sum_{i=1}^M\beta_ih_i(w)\tag{2} L(w,α,β)=f(w)+i=1∑K​αi​gi​(w)+i=1∑M​βi​hi​(w)(2)
当然可以用矩阵写成简单的形式:
L ( w , α , β ) = f ( w ) + α T g ( w ) + β T h ( w ) (3) L(w,\alpha,\beta)=f(w)+\alpha^Tg(w)+\beta^Th(w) \tag{3} L(w,α,β)=f(w)+αTg(w)+βTh(w)(3)
公式 ( 3 ) (3) (3)中 α T \alpha^T αT和 g ( w ) g(w) g(w)都是 K K K维的,而 β T \beta^T βT和 h ( w ) h(w) h(w)都是 M M M维的。则原问题的对偶问题为:
最 大 化 θ ( α , β ) = inf ⁡ 所 有 w { L ( w , α , β ) } 限 制 条 件 : α i ≥ 0 ( i = 1 ⋯ K ) (4) 最大化\quad\theta(\alpha,\beta)=\inf \limits_{所有w}\{~L(w,\alpha,\beta)~\}\\限制条件:\alpha_i~\ge~0\quad(i=1\cdots K)\tag{4} 最大化θ(α,β)=所有winf​{ L(w,α,β) }限制条件:αi​ ≥ 0(i=1⋯K)(4)
其中 inf ⁡ 所 有 w { L ( w , α , β ) } \inf \limits_{所有w}\{~L(w,\alpha,\beta)~\} 所有winf​{ L(w,α,β) }的意思是在限制 α \alpha α和 β \beta β的情况下遍历所有的 w w w求最小值,即每确定一个 α \alpha α和 β \beta β都能算出一个最小值,即每一个 α \alpha α和 β \beta β都对应一个值,很明显,这是 α \alpha α和 β \beta β的函数,故写作 θ ( α , β ) \theta(\alpha,\beta) θ(α,β)。那么公式 ( 4 ) (4) (4)是针对所有的 α \alpha α和 β \beta β求最大值,即在所有的最小值中找最大的。

(2)原问题和对偶问题的关系

定理:如果 w ∗ w^* w∗是原问题的解,而 α ∗ \alpha^* α∗, β ∗ \beta^* β∗是对偶问题的解,则有:
f ( w ∗ ) ≥ θ ( α ∗ , β ∗ ) (5) f(w^*)\ge\theta(\alpha^*,\beta^*)\tag{5} f(w∗)≥θ(α∗,β∗)(5)
定理证明如下:
θ ( α ∗ , β ∗ ) = inf ⁡ 所 有 w { L ( w , α ∗ , β ∗ ) } ≤ L ( w ∗ , α ∗ , β ∗ ) = f ( w ∗ ) + ∑ i = 1 K α i ∗ g i ( w ∗ ) + ∑ i = 1 M β i ∗ h i ( w ∗ ) 利 用 原 问 题 和 对 偶 问 题 的 限 制 条 件 可 知 : α i ∗ ≥ 0 , g i ( w ∗ ) ≤ 0 , h i ( w ∗ ) = 0 进 而 可 得 : ∑ i = 1 K α i ∗ g i ( w ∗ ) ≤ 0 , ∑ i = 1 M β i ∗ h i ( w ∗ ) = 0 最 终 可 得 : θ ( α ∗ , β ∗ ) ≤ f ( w ∗ ) − 证 毕 \theta(\alpha^*,\beta^*)=\inf\limits_{所有w}\{~L(w,\alpha^*,\beta^*)~\}\\ \leq L(w^*,\alpha^*,\beta^*)\\ =f(w^*)+\sum_{i=1}^K\alpha_i^*g_i(w^*)+\sum_{i=1}^M\beta_i^*h_i(w^*)\\ 利用原问题和对偶问题的限制条件可知: \\\alpha_i^*\ge0,g_i(w^*)\leq0,h_i(w^*)=0\\ 进而可得:\\ \sum_{i=1}^K\alpha_i^*g_i(w^*)\leq0,\sum_{i=1}^M\beta_i^*h_i(w^*)=0\\ 最终可得:\theta(\alpha^*,\beta^*)\leq f(w^*)-证毕 θ(α∗,β∗)=所有winf​{ L(w,α∗,β∗) }≤L(w∗,α∗,β∗)=f(w∗)+i=1∑K​αi∗​gi​(w∗)+i=1∑M​βi∗​hi​(w∗)利用原问题和对偶问题的限制条件可知:αi∗​≥0,gi​(w∗)≤0,hi​(w∗)=0进而可得:i=1∑K​αi∗​gi​(w∗)≤0,i=1∑M​βi∗​hi​(w∗)=0最终可得:θ(α∗,β∗)≤f(w∗)−证毕
接下来又有一个定义: G = f ( w ∗ ) − θ ( α ∗ , β ∗ ) ≥ 0 G=f(w*)-\theta(\alpha^*,\beta^*)\ge0 G=f(w∗)−θ(α∗,β∗)≥0, G G G叫作原问题与对偶问题的间距,对于某些特定的优化问题,可以证明 G = 0 G=0 G=0。

强对偶定理:若 f ( w ) f(w) f(w)为凸函数,且 g ( w ) = A w + b g(w)=Aw+b g(w)=Aw+b(线性), h ( w ) = C w + d h(w)=Cw+d h(w)=Cw+d(线性),则此优化问题原问题与对偶问题的间距为零,即 f ( w ∗ ) = θ ( α ∗ , β ∗ ) f(w^*)=\theta(\alpha^*,\beta^*) f(w∗)=θ(α∗,β∗),此证明比较麻烦,这里不作证明。这时我们就可以将原问题的求解转化到对偶问题的求解上来。

原问题与对偶问题的定义和关系相关推荐

  1. 机器学习——支持向量机SVM之非线性模型(原问题和对偶问题)

    目录 一.原问题(prime problem) 二.原问题的对偶问题(dual problem) 1.定义一个辅助函数 2.定义对偶问题 >>>问题1:上面说到遍历w,那w的取值范围 ...

  2. 最优化导论(part1)--求解原问题的对偶问题

    学习笔记,仅供参考,有错必纠 文章目录 最优化导论 原问题与对偶问题 对称形式的对偶 非对称形式的对偶 例题 最优化导论 原问题与对偶问题 每个线性规划问题都有一个与之对应的对偶问题,对偶问题是以原问 ...

  3. flask 定义数据库关系(一对多) --

    定义关系 在关系型数据库中,我们可以通过关系让不同表之间的字段建立联系.一般来说,定义关系需要两步,分别是创建外键和定义关系属性.在更复杂的多对多关系中,我们还需要定义关联表来管理关系.下面我们学习用 ...

  4. 【运筹学】对偶理论 : 互补松弛性 ( 原问题与对偶问题标准形式 | 互补松弛定理 | 互补松弛定理示例说明 )

    文章目录 一.原问题与对偶问题标准形式 二.互补松弛定理 三.互补松弛定理示例说明 一.原问题与对偶问题标准形式 原问题 P\rm PP : maxZ=CXs.t{AX≤bX≥0\begin{arra ...

  5. 【运筹学】对偶理论 : 互补松弛定理应用 ( 原问题与对偶问题标准形式 | 已知原问题最优解求对偶问题最优解 | 使用单纯形法求解 | 使用互补松弛定理公式一求解 | 互补松弛定理公式二无效 ) ★★

    文章目录 一.原问题与对偶问题标准形式 二.互补松弛定理 三.已知原问题最优解求对偶问题最优解 四.使用单纯形法求解 五.使用互补松弛定理公式一求解 六.使用互补松弛定理公式二求解 ( 无效方法 ) ...

  6. 【运筹学】对偶理论 : 总结 ( 对偶理论 | 原问题与对偶问题对应关系 | 对偶理论的相关结论 ) ★★★

    文章目录 一.对偶理论 1.对称性定理 2.弱对偶定理 3.最优性定理 4.强对偶性 5.互补松弛定理 二.原问题与对偶问题对应关系 二.对偶理论的相关结论 1.对偶问题存在 2.对偶问题转化 3.对 ...

  7. 软件与程序的定义和关系

    软件与程序的定义和关系 软件与程序的定义 软件:是一系列按照特定顺序组织的计算机数据和指令的集合.(软件 = 程序 + 文档) 程序:是一组计算机能识别和执行的指令,运行于电子计算机上,满足人们某种需 ...

  8. 线性规划原问题与对偶问题

    文章目录 1. 对偶问题 2. 原问题和对偶问题的对应关系 3. 举例 参考 1. 对偶问题 任一线性规划问题都存在另一与之伴随的线性规划问题,它们组成一对互为对偶的线性规划问题. 线性规划的对偶问题 ...

  9. 原码,反码和补码的关系?

    作者:张天行 链接:https://www.zhihu.com/question/23172611/answer/119406298 来源:知乎 著作权归作者所有.商业转载请联系作者获得授权,非商业转 ...

最新文章

  1. Go并发编程之美-Load/Store操作
  2. 深度学习未来十大趋势
  3. WinSCP+PuTTY搭配使用 ,解决Windows连接Linux系统文件传输和终端登陆
  4. 不做会死!互联网时代的企业必定都要实现中台
  5. 飞秋 包括《java就业培训课程》
  6. 如何找到某个方法的声明
  7. 第三季度营收不及预期 拼多多收盘跌超15%
  8. oracle 赋予dorp,oracle表空间(tablespace)的增删改查(create/drop/rename,move/select)
  9. walle多渠道打包+Tinker(bugly)热更新集成+360加固(乐固)
  10. 深度置信网络 Deep belief network
  11. android View和ViewGroup创建以及绘制流程
  12. html文档字符间距怎么设置,Pages字符间距怎么设置 Pages字符间距设置教程
  13. 设置IntelliJ IDEA生成注释时的@author
  14. 在Adapter里子线程更新UI线程
  15. Android 自定义圆形进度条(圆环刻度)View
  16. Simplorer—Maxwell联合仿真注意事项(结合实例讲解,和其他的教程类的不一样)
  17. Bootstrap轮播
  18. python开发出来的crm系统_用Python打造一个CRM系统(二)
  19. Unity插件之TextMeshPro 富文本
  20. 中班音乐会跳舞的机器人_中班音乐活动会跳舞的身体教案反思

热门文章

  1. Soot -- Soot中的一些语句细节
  2. ceph kernel rbd (二): rbd map , rbd unmap
  3. 计算机网络第六章 链路层和局域网
  4. Linux/ubuntu深度学习,查看cuda、cudnn、显卡、驱动的版本的命令
  5. 抗混叠滤波的Matlab解释
  6. ZigBee学习之11——MAC层API解读2
  7. 揭阳计算机短期培训机构,揭阳市PLC自动化速成班
  8. 金色传说:SAP-BAPI-BAPI_GOODSMVT_CREATE创建物料凭证bapi的使用及参数值讲解
  9. python集合增加元素_python集合的新增元素方法整理
  10. 拥有有趣灵魂的程序员们,程序员访谈(四)