sigmoid函数的定义

我就是可能太想发sigmod了(做梦),老把sigmoid打成sigmod…

表达式:


在百度上sigmoid函数是这么描述的:sigmoid函数也叫Logistic函数,用于隐层神经元输出,取值范围为(0,1),它可以将一个实数映射到(0,1)的区间,可以用来做二分类。在特征相差比较复杂或是相差不是特别大时效果比较好。Sigmoid作为激活函数有以下优缺点:

优点:平滑、易于求导。
缺点:激活函数计算量大,反向传播求误差梯度时,求导涉及除法;反向传播时,很容易就会出现梯度消失的情况,从而无法完成深层网络的训练。

(所以对于其缺点我们可以使用ReLU函数去替代掉,这一块还没有太来得及深入研究,暂且按下不表)

sigmoid函数的图像

为什么要使用sigmoid函数

一个很直观的感受就是,sigmoid函数可以将R范围的数映射到(0,1)区间上。而这便与倾向于是哪一种类别的概率p相关联起来。

另外还有一点很神奇的是,sigmoid函数的导数是可以直接由自己来表示的,这在神经网络的反向传播的求导中起了大用途

(随时再有感受随时更新)

常规用法

我们一般将sigmoid(logistic)函数套在回归模型上,变成logistic回归。
比如对于线性回归模型,我们便可以复合上一个sigmod函数,将其投射到(0,1)

sigmoid函数的损失函数(Lost function)

我们输入一组数据{(x(1),y(1)),(x(2),y(2)),(x(3),y(3))…(x(n),y(n))},想要通过模型得到预测a(i),使得a(i)≈y(i)

然后我们定义对于每一组的Lost function如下(注意是对于每一组预测值a(i)≈y(i)而言的):
L ( a , y ) = y l o g a + ( 1 − y ) l o g ( 1 − a ) L(a,y)=y{log{a}}+ (1-y){log{(1-a)}} L(a,y)=yloga+(1−y)log(1−a)

为什么要这么定义,为什么不用貌似看起来更加直接的,我们在回归模型中使用过的 L ( a , y ) = 1 / 2 ( a − y ) 2 L(a,y)=1/2(a-y)^2 L(a,y)=1/2(a−y)2呢

原因是简单的平方代价函数会使的函数图像趋于多点最优,在使用梯度下降法时会遇到困难。而新定义的损失函数则会使得函数是一个凸函数,不会陷入局部最优。(这里埋个坑,等做作业的时候实验一下图象是什么样的多点局部最优)

小结

这一部分开了一些sigmoid函数的坑,但是现在还没有太深入,所以先说一些小的特点,随时补充ing

深度学习笔记(2):sigmoid函数相关推荐

  1. 《深度学习笔记》——loss函数的学习笔记

    1 loss的作用 在南溪看来,loss函数是对目标target和预测prediction之间的一种距离度量的公式: 2 loss函数的设计原则 此设计原则参考了距离的定义,(注意:距离跟范数是两个概 ...

  2. 2020-4-22 深度学习笔记20 - 深度生成模型 5 (有向生成网络--sigmoid信念网络/可微生成器网络/变分自编码器VAE/生产对抗网络GAN/生成矩匹配网络)

    第二十章 深度生成模型 Deep Generative Models 中文 英文 2020-4-17 深度学习笔记20 - 深度生成模型 1 (玻尔兹曼机,受限玻尔兹曼机RBM) 2020-4-18 ...

  3. 28 Oracle深度学习笔记——ORACLE自带DBMS函数包

    28.Oracle深度学习笔记--ORACLE自带DBMS函数包 欢迎转载,转载请标明出处:http://blog.csdn.net/notbaron/article/details/50830889 ...

  4. 28.Oracle深度学习笔记——ORACLE自带DBMS函数包

    28.Oracle深度学习笔记--ORACLE自带DBMS函数包 欢迎转载,转载请标明出处:http://blog.csdn.net/notbaron/article/details/50830889 ...

  5. 《繁凡的深度学习笔记》前言、目录大纲 一文让你完全弄懂深度学习所有基础(DL笔记整理系列)

    <繁凡的深度学习笔记>前言.目录大纲 (DL笔记整理系列) 一文弄懂深度学习所有基础 ! 3043331995@qq.com https://fanfansann.blog.csdn.ne ...

  6. 深度学习笔记5:正则化与dropout

    出处:数据科学家养成记 深度学习笔记5:正则化与dropout 在笔记 4 中,笔者详细阐述了机器学习中利用正则化防止过拟合的基本方法,对 L1 和 L2 范数进行了通俗的解释.为了防止深度神经网络出 ...

  7. 深度学习笔记:手写一个单隐层的神经网络

    出处:数据科学家养成记 深度学习笔记2:手写一个单隐层的神经网络 笔记1中我们利用 numpy 搭建了神经网络最简单的结构单元:感知机.笔记2将继续学习如何手动搭建神经网络.我们将学习如何利用 num ...

  8. 深度学习笔记(27) 经典卷积网络

    深度学习笔记(27) 经典卷积网络 1. 前言 2. LeNet-5 3. AlexNet 4. VGGNet 1. 前言 讲了基本构建,比如卷积层.池化层以及全连接层这些组件 事实上,过去几年计算机 ...

  9. 深度学习笔记(4) 浅层神经网络

    深度学习笔记(4) 浅层神经网络 1. 神经网络概述 2. 激活函数 3. 激活函数的导数 4. 神经网络的梯度下降 5. 随机初始化 1. 神经网络概述 神经网络看起来是如下: 有输入特征x1.x2 ...

  10. 深度学习笔记(3) 向量化逻辑回归

    深度学习笔记(3) 向量化逻辑回归 1. 向量化运算的优势 2. 向量化编程 3. 举例 1. 向量化运算的优势 python的向量化运算速度快,是非常基础的去除代码中for循环的艺术 可以看出相同的 ...

最新文章

  1. 台湾国立大学郭彦甫Matlab教程笔记(2)
  2. php 后台配置系统,使用 laravel-admin 配置后台管理系统
  3. eclipse中插件修改svn用户名密码
  4. Confluence 6 为发送邮件配置服务器
  5. python 高阶函数之 reduce
  6. ZF2系列 – Zend Framework 2 MVC實作 (Part 3)
  7. 花书+吴恩达深度学习(十四)卷积神经网络 CNN 之经典案例(LetNet-5, AlexNet, VGG-16, ResNet, Inception Network)
  8. 罗永浩回应“调侃”俞敏洪转行做直播;苹果3月9日举行春季发布会;CentOS推出新车载Linux发行版 | 极客头条...
  9. Linux I2C设备驱动编写(二)
  10. 安装CentOS步骤
  11. Tcl 语言——Synopsys Tcl篇
  12. 计算机网络实验二:网络基础编程实验
  13. 我眼中的无影云桌面‖云桌面使用者角度
  14. 普通型母函数和指数型母函数
  15. 老米之家 抢注域名应该怎么抢?抢注域名的价值如何去衡量
  16. NVIDIA显卡驱动报错
  17. android 仿微信demo————注册功能实现(移动端)
  18. 【LOJ 10064】黑暗城堡
  19. 微软 Visual Studio 2019 正式发布
  20. win7安装Cajviewer后,打开文档,目录注释乱码问题解决

热门文章

  1. 给大家来一波线程池的问题连环炮
  2. 2019蓝桥杯B组省赛反思总结
  3. 单片机应用系统设计技术——计数器
  4. 教你查询快递物流多次收件的单号
  5. Chrome64位安装包下载
  6. TEA、XTEA、XXTEA加密解密算法(C语言实现)
  7. 能玩java游戏oppo按键手机_游戏手机排行榜 | OPPO Reno果然不负期待
  8. 智能八段锦 app 中的身体动作识别
  9. ip黑白名单防火墙frdev的原理与实现
  10. HC-05 蓝牙模块使用