整理自吴恩达深度学习课程 https://mooc.study.163.com/learn/2001281002?tid=2001392029#/learn/content?type=detail&id=2001702018&cid=2001694026

Why we need activation function ?

Deep networks with many many layers, many many hidden layers and turns out that if you use a linear activation function or alternatively if you don’t have an activation function then no matter how many layers your network has, always doing is computing a linear activation function, so you might as well not have any hidden layers.

If you use the linear function here and sigmoid function here, then this model is no more expressive than standard logistic regression without any hidden layer.

The take-home is that a linear hidden layer is more or less useless,because the composition of
two linear function is itself a linear function.
So unless you throw a non-linearty in there, then
you are not computing more interesting functions even as you good deeper in the network

I, blogger of this post, think that if you are suing linear function, you deep neural network will not get the higher level features we expect.

The hidden units should not use the linear activation functions, they could use ReLU or tanh or leaky ReLU or maybe somethings else. So the one place you might use as linear activation function is usually the output layer. But other that, using a linear activation function in a hidden layer except for some very special circumstances relating to compression. Using linear activation is extremely rare.

Why we need activation function?相关推荐

  1. 激活函数 activation function

    文章目录 激活函数 activation function Sigmoid Sigmoid 反向传播 Tanh ReLU Dead ReLU Problem 产生的原因 激活函数 activation ...

  2. Homepage Machine Learning Algorithm 浅谈深度学习中的激活函数 - The Activation Function in Deep Learning

    原文地址:http://www.cnblogs.com/rgvb178/p/6055213.html 版权声明:本文为博主原创文章,未经博主允许不得转载. 激活函数的作用 首先,激活函数不是真的要去激 ...

  3. 激活函数(Activation Function)及十大常见激活函数

    目录 1 激活函数的概念和作用 1.1 激活函数的概念 1.2 激活函数的作用 1.3 通俗地理解一下激活函数(图文结合) 1.3.1 无激活函数的神经网络 1.3.2 带激活函数的神经网络 2 神经 ...

  4. 深度学习中常见的10种激活函数(Activation Function)总结

    目录 一:简介 二:为什么要用激活函数 三:激活函数的分类 四:常见的几种激活函数 4.1.Sigmoid函数 4.2.Tanh函数 4.3.ReLU函数 4.4.Leaky Relu函数 4.5.P ...

  5. 第3.1章 卷积神经网络(CNN)——Conv、Pool、FC、Activation Function、BN各个层的作用及原理

    第3.1章 卷积神经网络CNN-不同层的作用 一.Convolution(CONV) 二.Pooling(POOL) 三.Fully Connected(FC) 四.Activation Functi ...

  6. 浅谈深度学习中的激活函数 - The Activation Function in Deep Learning

    原文地址:http://www.cnblogs.com/rgvb178/p/6055213.html 版权声明:本文为博主原创文章,未经博主允许不得转载. 激活函数的作用 首先,激活函数不是真的要去激 ...

  7. 【机器学习】神经网络-激活函数-面面观(Activation Function)

    神经网络之激活函数(Activation Function) 本博客仅为作者记录笔记之用,不免有很多细节不对之处. 还望各位看官能够见谅,欢迎批评指正. 更多相关博客请猛戳:http://blog.c ...

  8. 通俗理解神经网络之激励函数(Activation Function)

    本文整理自博客.知乎上关于激励函数的博客和回答.部分图片引用自知乎,如有侵权,请联系作者. 关于神经网络激励函数的作用,常听到的解释是:不使用激励函数的话,神经网络的每层都只是做线性变换,多层输入叠加 ...

  9. 聊一聊深度学习的activation function

    转载自:https://zhuanlan.zhihu.com/p/25110450 TLDR (or the take-away) 优先使用ReLU (Rectified Linear Unit) 函 ...

最新文章

  1. linux2.0版本发布时间,Ubuntu 20.04 LTS发布时间表公布 4月23日放出最终稳定版
  2. 汉诺塔递归与非递归算法
  3. java和c 进行des_c语言的des加密,怎么用java解密
  4. 数据结构:线性数据结构(2)-队列(栈,队列,deques, 列表)
  5. 出现 java.lang.NullPointerException 的几种原因、可能情况
  6. 笔试面试收获(持续更新中)
  7. 计量经济学实验报告计算机,计量经济学-实验报告.doc
  8. python安装(原系统中已有python2)
  9. Hive的伴奏_Position Music顶级背景音乐合集243CD
  10. SQL Server安装教程
  11. Kafka C++客户端库librdkafka详解
  12. 查看正在运行docker容器的启动命令
  13. windows系统镜像修复计算机,如何修复:Windows无法在此计算机上查找系统映像
  14. GRUB的menu.lst的写法
  15. 3、浙江移动网页Post登陆分析RSA算法【Post/Js逆向笔记】
  16. python打开文件写入内容_python-11 文件的打开和写入
  17. str(n)cpy的注意事项以及memset的简单使用
  18. 2023届求职 笔试面试记录
  19. 服务器机器hba卡型号,服务器hba卡需要配置什么
  20. uboot-链接脚本(u-boot.lds)

热门文章

  1. 超融合产品的优势和适用场景
  2. 图片裁剪工具vueCropper跨域解决
  3. 台式计算机的辐射程度,台式台式电脑辐射污染标准是多少
  4. 程序员兼职接私活平台大全,兼职也能月薪上万!
  5. 更改Linux系统的主机名(hostname)两种实用的方法
  6. QQ引流脚本,QQ扩列引流脚本实操演示
  7. Android 实战项目汇总
  8. iOS 自定义导航栏 NavigationBar
  9. mybatis 九大动态标签详解
  10. Cesium隐藏版权信息