深度学习笔记(2):sigmoid函数
sigmoid函数的定义
我就是可能太想发sigmod了(做梦),老把sigmoid打成sigmod…
表达式:
在百度上sigmoid函数是这么描述的:sigmoid函数也叫Logistic函数,用于隐层神经元输出,取值范围为(0,1),它可以将一个实数映射到(0,1)的区间,可以用来做二分类。在特征相差比较复杂或是相差不是特别大时效果比较好。Sigmoid作为激活函数有以下优缺点:
优点:平滑、易于求导。
缺点:激活函数计算量大,反向传播求误差梯度时,求导涉及除法;反向传播时,很容易就会出现梯度消失的情况,从而无法完成深层网络的训练。
(所以对于其缺点我们可以使用ReLU函数去替代掉,这一块还没有太来得及深入研究,暂且按下不表)
sigmoid函数的图像
为什么要使用sigmoid函数
一个很直观的感受就是,sigmoid函数可以将R范围的数映射到(0,1)区间上。而这便与倾向于是哪一种类别的概率p相关联起来。
另外还有一点很神奇的是,sigmoid函数的导数是可以直接由自己来表示的,这在神经网络的反向传播的求导中起了大用途
(随时再有感受随时更新)
常规用法
我们一般将sigmoid(logistic)函数套在回归模型上,变成logistic回归。
比如对于线性回归模型,我们便可以复合上一个sigmod函数,将其投射到(0,1)
sigmoid函数的损失函数(Lost function)
我们输入一组数据{(x(1),y(1)),(x(2),y(2)),(x(3),y(3))…(x(n),y(n))},想要通过模型得到预测a(i),使得a(i)≈y(i)
然后我们定义对于每一组的Lost function如下(注意是对于每一组预测值a(i)≈y(i)而言的):
L ( a , y ) = y l o g a + ( 1 − y ) l o g ( 1 − a ) L(a,y)=y{log{a}}+ (1-y){log{(1-a)}} L(a,y)=yloga+(1−y)log(1−a)
为什么要这么定义,为什么不用貌似看起来更加直接的,我们在回归模型中使用过的 L ( a , y ) = 1 / 2 ( a − y ) 2 L(a,y)=1/2(a-y)^2 L(a,y)=1/2(a−y)2呢
原因是简单的平方代价函数会使的函数图像趋于多点最优,在使用梯度下降法时会遇到困难。而新定义的损失函数则会使得函数是一个凸函数,不会陷入局部最优。(这里埋个坑,等做作业的时候实验一下图象是什么样的多点局部最优)
小结
这一部分开了一些sigmoid函数的坑,但是现在还没有太深入,所以先说一些小的特点,随时补充ing
深度学习笔记(2):sigmoid函数相关推荐
- 《深度学习笔记》——loss函数的学习笔记
1 loss的作用 在南溪看来,loss函数是对目标target和预测prediction之间的一种距离度量的公式: 2 loss函数的设计原则 此设计原则参考了距离的定义,(注意:距离跟范数是两个概 ...
- 2020-4-22 深度学习笔记20 - 深度生成模型 5 (有向生成网络--sigmoid信念网络/可微生成器网络/变分自编码器VAE/生产对抗网络GAN/生成矩匹配网络)
第二十章 深度生成模型 Deep Generative Models 中文 英文 2020-4-17 深度学习笔记20 - 深度生成模型 1 (玻尔兹曼机,受限玻尔兹曼机RBM) 2020-4-18 ...
- 28 Oracle深度学习笔记——ORACLE自带DBMS函数包
28.Oracle深度学习笔记--ORACLE自带DBMS函数包 欢迎转载,转载请标明出处:http://blog.csdn.net/notbaron/article/details/50830889 ...
- 28.Oracle深度学习笔记——ORACLE自带DBMS函数包
28.Oracle深度学习笔记--ORACLE自带DBMS函数包 欢迎转载,转载请标明出处:http://blog.csdn.net/notbaron/article/details/50830889 ...
- 《繁凡的深度学习笔记》前言、目录大纲 一文让你完全弄懂深度学习所有基础(DL笔记整理系列)
<繁凡的深度学习笔记>前言.目录大纲 (DL笔记整理系列) 一文弄懂深度学习所有基础 ! 3043331995@qq.com https://fanfansann.blog.csdn.ne ...
- 深度学习笔记5:正则化与dropout
出处:数据科学家养成记 深度学习笔记5:正则化与dropout 在笔记 4 中,笔者详细阐述了机器学习中利用正则化防止过拟合的基本方法,对 L1 和 L2 范数进行了通俗的解释.为了防止深度神经网络出 ...
- 深度学习笔记:手写一个单隐层的神经网络
出处:数据科学家养成记 深度学习笔记2:手写一个单隐层的神经网络 笔记1中我们利用 numpy 搭建了神经网络最简单的结构单元:感知机.笔记2将继续学习如何手动搭建神经网络.我们将学习如何利用 num ...
- 深度学习笔记(27) 经典卷积网络
深度学习笔记(27) 经典卷积网络 1. 前言 2. LeNet-5 3. AlexNet 4. VGGNet 1. 前言 讲了基本构建,比如卷积层.池化层以及全连接层这些组件 事实上,过去几年计算机 ...
- 深度学习笔记(4) 浅层神经网络
深度学习笔记(4) 浅层神经网络 1. 神经网络概述 2. 激活函数 3. 激活函数的导数 4. 神经网络的梯度下降 5. 随机初始化 1. 神经网络概述 神经网络看起来是如下: 有输入特征x1.x2 ...
- 深度学习笔记(3) 向量化逻辑回归
深度学习笔记(3) 向量化逻辑回归 1. 向量化运算的优势 2. 向量化编程 3. 举例 1. 向量化运算的优势 python的向量化运算速度快,是非常基础的去除代码中for循环的艺术 可以看出相同的 ...
最新文章
- 台湾国立大学郭彦甫Matlab教程笔记(2)
- php 后台配置系统,使用 laravel-admin 配置后台管理系统
- eclipse中插件修改svn用户名密码
- Confluence 6 为发送邮件配置服务器
- python 高阶函数之 reduce
- ZF2系列 – Zend Framework 2 MVC實作 (Part 3)
- 花书+吴恩达深度学习(十四)卷积神经网络 CNN 之经典案例(LetNet-5, AlexNet, VGG-16, ResNet, Inception Network)
- 罗永浩回应“调侃”俞敏洪转行做直播;苹果3月9日举行春季发布会;CentOS推出新车载Linux发行版 | 极客头条...
- Linux I2C设备驱动编写(二)
- 安装CentOS步骤
- Tcl 语言——Synopsys Tcl篇
- 计算机网络实验二:网络基础编程实验
- 我眼中的无影云桌面‖云桌面使用者角度
- 普通型母函数和指数型母函数
- 老米之家 抢注域名应该怎么抢?抢注域名的价值如何去衡量
- NVIDIA显卡驱动报错
- android 仿微信demo————注册功能实现(移动端)
- 【LOJ 10064】黑暗城堡
- 微软 Visual Studio 2019 正式发布
- win7安装Cajviewer后,打开文档,目录注释乱码问题解决