活动地址:CSDN21天学习挑战赛

函数与导数

函数

神经网路最常听到的一个名词就是激活函数,那激活函数是什么呢?

百度百科是这样说的,函数,最早由中国清朝数学家李善兰翻译,出于其著作《代数学》。之所以这么翻译,他给出的原因是“凡此变数中函彼变数者,则此为彼之函数”,也即函数指一个量随着另一个量的变化而变化,或者说一个量中包含另一个量。

其实,函数是一种映射关系,通过函数,可以将一个变量转化成另一个变量,而在神经网路中,这个变量是矩阵,是张量。

激活函数

常见的激活函数有:

  • sigmoid函数:
    f(x)=11+e−xf(x) = \frac{1}{1+e^{-x}} f(x)=1+e−x1​
  • 双曲正切函数:
    f(x)=tanh(x)=21+e−2x−1f(x) = tanh(x)= \frac{2}{1+e^{-2x}}-1 f(x)=tanh(x)=1+e−2x2​−1
  • ReLU函数:
    f(x)={max(0,x),x≥00f(x) = \begin{cases} max(0,x),\quad x \ge 0 \\ 0 \end{cases} f(x)={max(0,x),x≥00​
    用matplotlib简单的画一下三个激活函数,如下
import matplotlib.pyplot as pltx=np.arange(-5,5)
f1=1/ (1+np.exp(-x))
f2=2/(1+np.exp(-2*x))-1
def ReLu2(x):return max(0,x) if x>=0 else 0
vec=np.vectorize(ReLu2)plt.plot(x,f1,'.-b', label='sigmoid')
plt.plot(x,f2, '-r',label='tanh')
plt.plot(x,vec(x), '-g',label='ReLU')
plt.grid()
plt.legend()
plt.show()

导数

导数(Derivative),也叫导函数值。又名微商,是微积分中的重要基础概念。当函数y=f(x)y=f(x)y=f(x)的自变量 xxx 在一点 x0x_0x0​ 上产生一个增量 △x\bigtriangleup x△x 时,函数输出值的增量 △y\bigtriangleup y△y 与自变量增量 △x\bigtriangleup x△x 的比值在 △x\bigtriangleup x△x 趋于0时的极限 aaa 如果存在,aaa 即为在 x0x_0x0​ 处的导数,记作 f′(x0){f}' (x_0)f′(x0​) 或 $ \frac {df(x_0)}{dx}$, 即
f′(x0)=lim⁡△x→0△y△x=lim⁡△x→0f(x0+△x)−f(x0)△x{f}' (x_0) = \lim_{\bigtriangleup x \to 0} \frac{\bigtriangleup y}{\bigtriangleup x} = \lim_{\bigtriangleup x \to 0} \frac{f(x_0 + \bigtriangleup x) - f(x_0)}{\bigtriangleup x} f′(x0​)=△x→0lim​△x△y​=△x→0lim​△xf(x0​+△x)−f(x0​)​

所以激活函数sigmoid函数的导数为:

f′(x)=(11+e−x)′=ex(1+e−x)2=f(x)1+ex−11+e−x=f(x)(1−f(x))f'(x) = (\frac{1}{1+e^{-x}})'= \frac{e^x}{(1+e^{-x})^2}=f(x) \frac{1+e^x-1}{1+e^{-x}}=f(x)(1-f(x)) f′(x)=(1+e−x1​)′=(1+e−x)2ex​=f(x)1+e−x1+ex−1​=f(x)(1−f(x))

深度学习数学基础之激活函数与导数相关推荐

  1. 吴恩达深度学习 —— 3.8 激活函数的导数

    当你对你的神经网络使用反向传播的时候,你真的需要计算激活函数的斜率或者导数,我们看看激活函数的选择,以及如何计算这些函数的斜率. 可以看到很熟悉的sigmoid激活函数,所以对于任意给定的z值,也许这 ...

  2. 深度学习数学基础(三): 激活函数、正则化函数、损失函数、评价指标

    目录 1. 激活函数activation function 1.1 Sigmoid 1.2 tanh 1.3 ReLU 1.4 Leaky ReLU 1.5 softmax 1.6 Gelu 2. 归 ...

  3. 《速通深度学习数学基础》

    目录 序 前言 第1章 线性代数的基本概念 1.1 向量和深度学习 1.2 向量距离计算 1.3 向量的基本性质 1.4 矩阵的基本概念 1.5 一些特殊的矩阵 第2章 线性代数在深度学习中的应用 2 ...

  4. Keras深度学习实战(4)——深度学习中常用激活函数和损失函数详解

    Keras深度学习实战(4)--深度学习中常用激活函数和损失函数详解 常用激活函数 Sigmoid 激活函数 Tanh 激活函数 ReLU 激活函数 线性激活函数 Softmax 激活函数 损失函数 ...

  5. 盘点 深度学习妖怪 之 激活函数妖

    盘点 深度学习妖怪 之 激活函数妖 哈哈,捉妖师的我这次给大家简单盘点一下那些在深度神经网络中兴风作浪的激活函数都有哪些妖怪吧,个个身手不凡,狡猾狡猾滴! 在此之前先给说下我们在使用神经网络的时候为啥 ...

  6. Homepage Machine Learning Algorithm 浅谈深度学习中的激活函数 - The Activation Function in Deep Learning

    原文地址:http://www.cnblogs.com/rgvb178/p/6055213.html 版权声明:本文为博主原创文章,未经博主允许不得转载. 激活函数的作用 首先,激活函数不是真的要去激 ...

  7. 深度学习--数学基础(1)

    深度学习–数学基础(1) *2021-04-21 22:56 在学习深度学习之前,需具备良好的数学基础,主要包括线性代数.微积分.概率论三个数学分支. 目录 深度学习--数学基础(1) 1.数据表示- ...

  8. 深度学习入门之激活函数

    深度学习入门之激活函数 参考书籍:深度学习入门--基于pyhthon的理论与实现 文章目录 深度学习入门之激活函数 前言 一.sigmoid函数 1.简介 2.python实现 3.函数用法 二.阶跃 ...

  9. R语言使用自定义函数编写深度学习Leaky ReLU激活函数、并可视化Leaky ReLU激活函数

    R语言使用自定义函数编写深度学习Leaky ReLU激活函数.并可视化Leaky ReLU激活函数 目录

最新文章

  1. mysql半同步复制实现
  2. ARM中的RO、RW和ZI DATA
  3. 中国软件正版化的理想模型
  4. 守护线程与非守护线程
  5. Windows/Linux中手动添加路由
  6. [react] React为什么要搞一个Hooks?
  7. 报告一下近期读书情况
  8. Tensorflow代码解析(一)
  9. 别以为真懂Openstack: 虚拟机创建的50个步骤和100个知识点(1)
  10. mysql数据库增删改查关键字_Mysql数据库,增删改查笔记(非常重要)-阿里云开发者社区...
  11. Basic INFO - InstallShield的版本区分
  12. python2 输出\n 不要换行
  13. Ant-编译构建(1)-HelloWorld
  14. 上海车展自动驾驶产业链盘点
  15. React自定义视频全屏按钮
  16. 谷粒学苑 —— 3、后台系统前端项目创建
  17. 2020上海大学生网络安全赛MISC可乐加冰
  18. 阿里P7需要精通哪些技术?看完Github上星标98K的对标阿里P7学习路线我彻底惊了
  19. 使用 Suspense 改善 Vue 3 中的用户体验
  20. 社区项目发现的问题四 datatable的注意事项

热门文章

  1. Linux: fPIC与 pie 区别
  2. 【FPGA】Quartus Prime 20.1 精简版下载安装教程记录
  3. Idea在Maven项目中使用支付宝沙箱环境
  4. win10升级补丁_微软官方给出无法安装WIN10更新的终极解决办法:覆盖安装
  5. waiting for changelog lock.
  6. NavigationController
  7. Core Data概述
  8. 假设检验和P值那些事
  9. Ubuntu 16.04 引导修复(boot-repair)
  10. Excel 2010 SQL应用116 分组统计之GROUP BY续