Cost Function of Support Vector Machine
Logistic Regression 中的函数 f,gf,gf, g
f(x)=ln(1+ex),x∈R,g(x)=f(−x)f(x)=ln(1+ex),x∈R,g(x)=f(−x)f(x) = \ln (1 + e ^{x}), x \in \mathbb R, g(x) = f(-x)
f,gf,gf, g 的性质
f′(x)=ex1+ex>0,x∈Rf′(x)=ex1+ex>0,x∈Rf'(x) = \dfrac {e ^{x}} {1 + e ^{x}} \gt 0, x \in \mathbb R
f′′(x)=(ex1+ex)′=ex(1+ex)2>0,x∈Rf″(x)=(ex1+ex)′=ex(1+ex)2>0,x∈Rf''(x) = \left ( \dfrac {e ^{x}} {1 + e ^{x}} \right )' = \dfrac {e ^{x}} {(1 + e ^{x} ) ^2} > 0, x \in \mathbb R
limx→+∞f(x)=+∞,limx→−∞f(x)=0limx→+∞f(x)=+∞,limx→−∞f(x)=0\lim \limits_{x \to + \infty} f(x) = + \infty, \lim \limits_{x \to - \infty} f(x) = 0
limx→−∞f(x)x=limx→−∞f′(x)=1limx→−∞f(x)x=limx→−∞f′(x)=1\lim \limits_{x \to - \infty} \dfrac {f(x)} {x} = \lim \limits_{x \to - \infty} f'(x) = 1
limx→+∞[f(x)−x]=limx→+∞ln(1+e−x)=0limx→+∞[f(x)−x]=limx→+∞ln(1+e−x)=0\lim \limits_{x \to + \infty} \left [ f(x) - x \right ]= \lim \limits_{x \to + \infty} \ln (1 + e ^{- x}) = 0
g(x)=f(−x)=ln(1+e−x),x∈Rg(x)=f(−x)=ln(1+e−x),x∈Rg(x) = f(-x) = \ln (1 + e ^{-x}), x \in \mathbb R
g′(x)=11+e−xe−x(−1)=−11+ex<0,x∈Rg′(x)=11+e−xe−x(−1)=−11+ex<0,x∈Rg'(x) = \dfrac {1} {1 + e ^{-x}} e ^{-x} (-1) = - \dfrac {1} {1 + e ^{x}} \lt 0, x \in \mathbb R
g′′(x)=−(11+ex)′=ex(1+ex)2>0,x∈Rg″(x)=−(11+ex)′=ex(1+ex)2>0,x∈Rg''(x) = - \left ( \dfrac {1} {1 + e ^{x}} \right )' = \dfrac {e ^{x}} {(1 + e ^{x} ) ^2} > 0, x \in \mathbb R
SVM 的函数 cost0,cost1cost0,cost1\operatorname {cost} _0, \operatorname {cost} _1
cost0(x)=max(0,x−1)cost0(x)=max(0,x−1){cost} _0 (x) = \max (0, x - 1)
cost1(x)=max(0,1−x)cost1(x)=max(0,1−x){cost} _1 (x) = \max (0, 1 - x)
Cost function of Logistic Regression
hθ(Xi)=11+e−θ⊺Xihθ(Xi)=11+e−θ⊺Xih _{\theta} \left (X_i\right ) = \dfrac {1} {1 + e ^{- \theta ^{\intercal} X_i}}
J(θ)=−1m∑i=1m{yiln(hθ(Xi))+(1−yi)ln(1−hθ(Xi))}+λ2m∑j=1nθ2jJ(θ)=−1m∑i=1m{yiln(hθ(Xi))+(1−yi)ln(1−hθ(Xi))}+λ2m∑j=1nθj2J\left (\theta\right ) = - \dfrac {1} {m} \sum \limits_{i = 1} ^{m} \left \{ y_i \ln \left ( h _{\theta} \left (X_i\right ) \right )+ \left (1 - y_i\right ) \ln \left (1 - h _{\theta} \left (X_i\right )\right ) \right \} + \dfrac {\lambda} {2 m} \sum \limits_{j = 1} ^{n}\theta _{j} ^2
则 −lnhθ(Xi)=g(θ⊺Xi)−lnhθ(Xi)=g(θ⊺Xi)- \ln h _{\theta} \left (X_i \right ) = g(\theta ^{\intercal} X_i)
−ln(1−hθ(Xi))=f(θ⊺Xi)−ln(1−hθ(Xi))=f(θ⊺Xi)- \ln \left (1 - h _{\theta} \left (X_i\right )\right ) = f(\theta ^{\intercal} X_i)
于是 J(θ)=∑i=1m[yig(θ⊺Xi)+(1−yi)f(θ⊺Xi)]+λ2m∑j=1nθ2jJ(θ)=∑i=1m[yig(θ⊺Xi)+(1−yi)f(θ⊺Xi)]+λ2m∑j=1nθj2J\left (\theta\right ) = \sum \limits_{i = 1} ^{m} \left [ y_i g(\theta ^{\intercal} X_i) + \left (1 - y_i\right ) f(\theta ^{\intercal} X_i) \right ] + \dfrac {\lambda} {2 m} \sum \limits_{j = 1} ^{n}\theta _{j} ^2
Cost function of Support Vector Machine
hθ(Xi)={1,0,θ⊺Xi≥0,otherwise,hθ(Xi)={1,θ⊺Xi≥0,0,otherwise,h _{\theta} \left (X_i\right ) = \begin{cases} 1, & \theta ^{\intercal} X_i \ge 0, \\ 0, & \text {otherwise}, \end{cases}
J(θ)=C∑i=1m[yicost1(θ⊺Xi)+(1−yi)cost0(θ⊺Xi)]+∑j=1nλ2θ2jJ(θ)=C∑i=1m[yicost1(θ⊺Xi)+(1−yi)cost0(θ⊺Xi)]+∑j=1nλ2θj2J\left (\theta\right ) = C \sum \limits_{i = 1} ^{m} \left [ y_i \operatorname {cost} _1 (\theta ^{\intercal} X_i) + \left (1 - y_i\right ) \operatorname {cost} _0 (\theta ^{\intercal} X_i) \right ] + \sum \limits_{j = 1} ^{n} \dfrac {\lambda} {2} \theta _{j} ^2
Cost Function of Support Vector Machine相关推荐
- 机器学习-62-Structured Learning-03-Structured Support Vector Machine(结构化学习-结构化支持向量机)
文章目录 Structured Support Vector Machine Unified Framework(统一框架:两步走,三问题) two steps(两步) three problems( ...
- 机器学习算法系列(十五)-软间隔支持向量机算法(Soft-margin Support Vector Machine)
阅读本文需要的背景知识点:硬间隔支持向量机.松弛变量.一丢丢编程知识 一.引言 前面一节我们介绍了一种最基础的支持向量机模型--硬间隔支持向量机,该模型能对线性可分的数据集进行分类,但现实中的数据 ...
- 机器学习算法系列(十六)-非线性支持向量机算法(Non-Linear Support Vector Machine)
阅读本文需要的背景知识点:线性支持向量机.一丢丢编程知识 一.引言 前面我们用两节介绍了两种支持向量机模型--硬间隔支持向量机.软间隔支持向量机,这两种模型可以统称为线性支持向量机,下面来介绍另一 ...
- 台湾大学林轩田机器学习技法课程学习笔记3 -- Kernel Support Vector Machine
红色石头的个人网站:redstonewill.com 上节课我们主要介绍了SVM的对偶形式,即dual SVM.Dual SVM也是一个二次规划问题,可以用QP来进行求解.之所以要推导SVM的对偶形式 ...
- 机器学习算法 --- SVM (Support Vector Machine)
一.SVM的简介 SVM(Support Vector Machine,中文名:支持向量机),是一种非常常用的机器学习分类算法,也是在传统机器学习(在以神经网络为主的深度学习出现以前)中一种非常牛X的 ...
- 【李宏毅2020 ML/DL】补充:Support Vector Machine (SVM)
我已经有两年 ML 经历,这系列课主要用来查缺补漏,会记录一些细节的.自己不知道的东西. 本次笔记补充视频 BV1JE411g7XF 的缺失部分.在另一个UP主上传的2017课程BV13x411v7U ...
- Support Vector Machine学习笔记
学习目标 掌握SVM的基本原理以及推导过程 1.SVM的基本原理: SVM本质上是一种二分类模型,基本模型是定义在特征空间中间隔最大的分类器,它的学习/优化目的就是使得这个间隔最大化. 为什么要使间隔 ...
- 李宏毅svm_【李宏毅机器学习笔记】 18、支持向量机(Support Vector Machine,SVM)...
[李宏毅机器学习笔记]1.回归问题(Regression) [李宏毅机器学习笔记]2.error产生自哪里? [李宏毅机器学习笔记]3.gradient descent [李宏毅机器学习笔记]4.Cl ...
- 【机器学习算法】支持向量机(support Vector Machine,SVM)
目录 支持向量机 支持向量机概述 线性可分及线性不可分的问题 线性可分的支持向量机 线性不可分的支持向量机 支持向量机与神经网络之间的关系 处理两类以上的分类问题. 我的主页:晴天qt01的博客_CS ...
- 机器学习| 面试题:01、机器学习中LR(Logistic Regression)和SVM(Support Vector Machine)有什么区别与联系?
问题 机器学习中LR(Logistic Regression)和SVM(Support Vector Machine)有什么区别与联系? 背景 LR和SVM的概念大家都有了解甚至很熟悉了,不过在面试中 ...
最新文章
- jquery的attr和prop区别之实例
- Kong APIGW — 安装与配置
- 基于移动位置服务器,移动定位服务器的设计与实现
- 【数据结构与算法】之深入解析“序列化和反序列化二叉搜索树”的求解思路与算法示例
- leetcode454. 四数相加 II(思路+详解)
- linux命令headtail
- python3 读取文本文件_python3读取文件最简单的办法
- 灰色关联法 —— matlab
- 【MS SQL】通过执行计划来分析SQL性能
- 随手记_ubuntu下配置vscode+cmake c++开发环境
- python照片过人脸_python图片人脸检测
- 纳多德通过ISO 9001质量、ISO 14001环境、ISO 45001职业健康安全国际管理体系认证
- 怎样配置更完美的图形工作站
- 一道关于飞机加油的问题
- iOS 模拟器安装APP,在电脑上运行ios的app
- win平板计算机,2020年10款最佳Windows系统平板电脑推荐
- VS Code插件Code Runner使用python虚拟环境
- 谷歌浏览器 android4.4,谷歌发布移动版Chrome浏览器仅限Android4.0
- CMYK模式(cmyk模式导出的图片颜色变了)
- 华为智慧屏SE55通过FTP远程文件管理-实简FTP v1.6.30
热门文章
- 职场江湖 告诉你如何八面玲珑
- 腾讯云服务器公网ip无法访问
- jmeter使用_Jmeter之Remote Testing使用
- JavaWeb-Servlet--day01(笔记)
- 木门怎么打_装门框,只打发泡剂一点不牢固!如今门套下沉,气得邻居直跺脚!...
- java实验十三io_Java语言基础13—IO
- 水电缴费系统php源码_php简易扫码付教育收费系统 v1.2
- python自定义修饰器_Python进阶自检清单:来自《Effective Python》的建议(二)
- linux mysql 5.7 配置_Linux环境下详细讲解部署MySQL5.7版本
- bs架构与cs架构的区别_性能测试流程5步走:BS架构和CS架构性能指标大对比