当前位置: 首页 > article >正文

机器学习5_支持向量机_原问题和对偶问题

目录

原问题与对偶问题的定义

定义该原问题的对偶问题如下

在定义了函数  的基础上,对偶问题如下:

综合原问题和对偶问题的定义得到:

定理一

对偶差距(Duality Gap)

强对偶定理(Strong Duality Theorem)

假如  成立,又根据定理一推出不等式

转化为对偶问题

首先将

得到

最小化:

限制条件:

再整理一下

最小化: 或  

限制条件:

用对偶理论求解该问题的对偶问题

对偶问题

按照对偶问题的定义,可以将对偶问题写成如下形式:

如何将原问题化为对偶问题


原问题(Prime Problem)

对偶问题(Dual Problem)

原问题与对偶问题的定义

最小化(Minimize):f\left ( \omega \right )

限制条件(Subject to):g_i(\omega )\leq 0,i=1\sim K

                                          h_i(\omega )= 0,i=1\sim m

自变量为 \omega\Leftarrow 多维向量

目标函数是 f\left ( \omega \right ) 

定义该原问题的对偶问题如下

定义函数:

L(\omega ,\alpha ,\beta )=f(\omega )+\displaystyle\sum_{i=1}^{K}\alpha _ig_i(\omega )+\displaystyle\sum_{i=1}^{K}\beta _ih_i(\omega )

向量的形式 \Rightarrow  =f(\omega )+\alpha ^Tg(\omega )+\beta ^Th(\omega )

其中 \alpha =[\alpha _1,\alpha _2,...,\alpha _k]^T\beta =[\beta _1,\beta _2,...,\beta _M]^T

g(\omega )=[g_1(\omega ),g_2(\omega ),...,g_K(\omega )]^Th(\omega )=[h_1(\omega ),h_2(\omega ),...,h_M(\omega )]^T

在定义了函数 L(\omega ,\alpha ,\beta ) 的基础上,对偶问题如下:

最大化:\theta (\alpha ,\beta )=inf\text{ }L(\omega ,\alpha ,\beta ),所有定义域内的 \omega

限制条件:\alpha _i\geq 0,i=1\sim K

综合原问题和对偶问题的定义得到:

定理一

如果 \omega ^* 是原问题的解,(\alpha ^*,\beta ^*) 是对偶问题的解则有:

f(\omega ^*)\geqslant \theta (\alpha ^*,\beta ^*)

证明:\theta (\alpha^* ,\beta ^*)=inf\text{ }L(\omega ,\alpha^* ,\beta ^*)

                             \leq L(\omega^* ,\alpha^* ,\beta^* )

                     =f(\omega ^*)+\alpha ^{*T}g(\omega ^*)+\beta ^{*T}h(\omega ^*)

                             \leq f(\omega ^*)

\because  \omega ^* 是原问题的解

\therefore  g(\omega ^*)\leqslant 0h(\omega ^*)= 0

\because  (\alpha ^*,\beta ^*) 是对偶问题的解

\therefore  \alpha (\omega ^*)\geqslant 0


对偶差距(Duality Gap)

f(\omega ^*)- \theta (\alpha ^*,\beta ^*)

根据定理一,对偶差距 \geqslant 0


强对偶定理(Strong Duality Theorem)

如果 g(\omega )=A\omega +bh(\omega )=C\omega +df(\omega ) 为凸函数,则有 f(\omega ^*)= \theta (\alpha ^*,\beta ^*),则对偶差距为0。

如果:原问题的目标函数是凸函数,限制条件是线性函数。

那么原问题的解 f(\omega ^*)= \theta (\alpha ^*,\beta ^*),对偶差距等于0。

假如 f(\omega ^*)= \theta (\alpha ^*,\beta ^*) 成立,又根据定理一推出不等式

若 f(\omega ^*)= \theta (\alpha ^*,\beta ^*),则定理一中必然能够推出,对于所有的 i=1\sim K,要么 \alpha _i=0,要么 g_i(\omega ^*)=0。这个条件成为KKT条件


转化为对偶问题

支持向量机的原问题满足强对偶定理

首先将

\delta _i\geq 0(i=1\sim N) 转换成 \delta _i\leq 0(i=1\sim N)

得到

最小化:\frac{1}{2}\left \| \omega \right \|^2-C \displaystyle\Sigma _{i=1}^N \delta _i
限制条件:

        (1)\delta _i\leq 0(i=1\sim N)

        (2)y_i[\omega ^T\varphi (X_i)+b]\geq 1+\delta _i,(i=1\sim N)

再整理一下

最小化:\frac{1}{2}\left \| \omega \right \|^2-C \displaystyle\Sigma _{i=1}^N \delta _i 或  \frac{1}{2}\left \| \omega \right \|^2+C \displaystyle\Sigma _{i=1}^N \delta _i

                \Uparrow 情况1                          \Uparrow 情况2

限制条件:

        (1)\delta _i\leq 0(i=1\sim N)

        (2)1+\delta _i-y_i\omega ^T\varphi (X_i)-y_ib\leq 0 ,(i=1\sim N) 

两个限制条件都是线性的,支持向量机的目标函数是凸的,它满足强对偶定理。

用对偶理论求解该问题的对偶问题

对偶问题

自变量 \omega 等于这里的 \left ( \omega ,b,\delta _i \right )

不等式 g_i(\omega )\leq 0 在这里被分成了两部分,

        一部分:\delta _i\leq 0(i=1\sim N)

        另一部分:1+\delta _i-y_i\omega ^T\varphi (X_i)-y_ib\leq 0 ,(i=1\sim N)

不存在 h_i(\omega )

按照对偶问题的定义,可以将对偶问题写成如下形式:

最大化:

\theta (\alpha ,\beta )=inf_{\omega ,\delta _i,b} \left \{ \frac{1}{2}\left \| \omega \right \|^2-C \sum_{i=1}^{N}\beta _i\delta _i+\sum_{i=1}^{N} \alpha _i\left [1+\delta _i-y_i\omega ^T\varphi (X_i)-y_ib \right ] \right \}

限制条件:

        (1)\alpha _i\geq 0

        (2)\beta _i\geq 0

如何将原问题化为对偶问题

遍历所有 \left ( \omega ,b,\delta _i \right ) 求最小值

对 \left ( \omega ,b,\delta _i \right ) 求导并令导数为 \textbf{0}

(1)\frac{\partial \theta }{\partial\omega }=\omega-\sum_{i=1}^{N}\alpha _i\varphi (X_i)y_i=0 \text{ } \Rightarrow \text{ } \omega=\sum_{i=1}^{N}\alpha _iy_i\varphi (X_i)

(2)\frac{\partial \theta }{\partial\delta _i }=-C+\alpha _i+\beta _i=0 \text{ } \Rightarrow \text{ }\alpha _i+\beta _i=C

(3)\frac{\partial \theta }{\partial b }=-\sum_{i=1}^{N}\alpha _iy_i=0 \text{ } \Rightarrow \text{ } \sum_{i=1}^{N}\alpha _iy_i=0

(1)用的是向量的求导准则,(2)、(3)用的是常规的自变量求导。

将获得的三个式子代入到表达中

将支持向量机的原问题化为对偶问题:

最大化:

\theta (\alpha ,\beta )=\sum_{i=1}^{N}\alpha _i-\frac{1}{2}\sum_{i=1}^{N}\sum_{j=1}^{N}y_i y_j\alpha _i\alpha _j\varphi (X_i)^T\varphi (X_j)

限制条件:

        (1)0\leq \alpha _i\leq C,(i=1\sim N)

前面:\alpha _i\geq 0,\beta _i\geq 0

根据:\alpha _i+\beta _i=C \text{ }

        \Rightarrow \text{ }\beta _i=C-\alpha_i\geqslant 0

        (2)\sum_{i=1}^{N}\alpha _iy_i=0,(i=1\sim N)


http://www.kler.cn/a/393316.html

相关文章:

  • Vector 深度复制记录
  • LeetCode【0035】搜索插入位置
  • ElasticSearch学习笔记一:简单使用
  • C# 集合与泛型
  • 期权懂|期权新手入门教学:期权合约有哪些要素?
  • jQuery笔记
  • 数字字符串格式化
  • 【Rust调用Windows API】杀掉指定进程(包括兄弟进程、子进程、父进程)
  • 人力资源招聘系统-提升招聘效率与质量的关键工具
  • Docker 部署Nacos 单机部署 MYSQL数据持久化
  • 计算机网络(4)之交换技术,分层技术和默认网关
  • 怎么在MindMaster里插入剪贴画?
  • c++ 二分查找
  • Mac Nginx 前端打包部署
  • Vue开发风格
  • Scala的Map集合练习
  • 关键字“退出、结束、跳过”(day13)
  • 2024 年 10 月区块链游戏研报:活跃用户与链上游戏生态的最新趋势解读
  • 飞牛私有云访问外网
  • Python发展历程·练习题 --- 《跟着小王学Python》
  • Golang | Leetcode Golang题解之第553题最优除法
  • 使用 Python 和 OpenCV 实现摄像头人脸检测并截图
  • 什么是RabbitMQ?
  • 搭建Python2和Python3虚拟环境
  • MySQL --- 自定义函数获取部门层级名称
  • 修改mysql默认字符集