←上一篇 ↓↑ 下一篇→
3.7 测试时的 Batch Norm 回到目录 3.9 训练一个 Softmax 分类器

Softmax 回归 (Softmax Regression)

到目前为止,我们讲到过的分类的例子都使用了二分分类,这种分类只有两种可能的标记0或1,这是一只猫或者不是一只猫,如果我们有多种可能的类型的话呢?有一种logistic回归的一般形式,叫做Softmax回归,能让你在试图识别某一分类时做出预测,或者说是多种分类中的一个,不只是识别两个分类,我们来一起看一下。

假设你不单需要识别猫,而是想识别猫,狗和小鸡,我把猫加做类1,狗为类2,小鸡是类3,如果不属于以上任何一类,就分到“其它”或者说“以上均不符合”这一类,我把它叫做类0。这里显示的图片及其对应的分类就是一个例子,这幅图片上是一只小鸡,所以是类3,猫是类1,狗是类2,我猜这是一只考拉,所以以上均不符合,那就是类0,下一个类3,以此类推。我们将会用符号表示,我会用大写的 CCC 来表示你的输入会被分入的类别总个数,在这个例子中,我们有4种可能的类别,包括“其它”或“以上均不符合”这一类。当有4个分类时,指示类别的数字,就是从0到 C−1C-1C−1 ,换句话说就是0、1、2、3。

在这个例子中,我们将建立一个神经网络,其输出层有4个,或者说 CCC 个输出单元,因此 nnn ,即输出层也就是 LLL 层的单元数量,等于4,或者一般而言等于 CCC 。我们想要输出层单元的数字告诉我们这4种类型中每个的概率有多大,所以这里的第一个节点(最后输出的第1个方格+圆圈)输出的应该是或者说我们希望它输出“其它”类的概率。在输入 XXX 的情况下,这个(最后输出的第2个方格+圆圈)会输出猫的概率。在输入 XXX 的情况下,这个会输出狗的概率(最后输出的第3个方格+圆圈)。在输入 XXX 的情况下,输出小鸡的概率(最后输出的第4个方格+圆圈),我把小鸡缩写为bc(baby chick)。因此这里的 y^\hat{y}y^​ 将是一个 4∗14 * 14∗1 维向量,因为它必须输出四个数字,给你这四种概率,因为它们加起来应该等于1,输出中的四个数字加起来应该等于1。

让你的网络做到这一点的标准模型要用到Softmax层,以及输出层来生成输出,让我把式子写下来,然后回过头来,就会对Softmax的作用有一点感觉了。

在神经网络的最后一层,你将会像往常一样计算各层的线性部分, z[l]z^{[l]}z[l] 这是最后一层的 zzz 变量,记住这是大写 LLL 层,和往常一样,计算方法是 z[l]=W[l]a[L−1]+b[l]z^{[l]}=W^{[l]}a^{[L-1]}+b^{[l]}z[l]=W[l]a[L−1]+b[l] ,算出了 zzz 之后,你需要应用Softmax激活函数,这个激活函数对于Softmax层而言有些不同,它的作用是这样的。首先,我们要计算一个临时变量,我们把它叫做 ttt ,它等于 ez[l]e^{z^{[l]}}ez[l] ,这适用于每个元素,而这里的 z[l]z^{[l]}z[l] ,在我们的例子中, z[l]z^{[l]}z[l] 是4×1的,四维向量 t=ez[l]t=e^{z^{[l]}}t=ez[l] ,这是对所有元素求幂, ttt 也是一个4×1维向量,然后输出的 a[l]a^{[l]}a[l] ,基本上就是向量 ttt ,但是会归一化,使和为1。因此 a[l]=ez[l]∑j=14tia^{[l]}=\frac{e^{z^{[l]}}}{\sum_{j=1}^4t_i}a[l]=∑j=14​ti​ez[l]​ ,换句话说, a[l]a^{[l]}a[l] 也是一个4×1维向量,而这个四维向量的第 iii 个元素,我把它写下来, ai[l]=ti∑j=14tia^{[l]}_i=\frac{t_i}{\sum_{j=1}^4t_i}ai[l]​=∑j=14​ti​ti​​ ,以防这里的计算不够清晰易懂,我们马上会举个例子来详细解释。

我们来看一个例子,详细解释,假设你算出了 z[l]z^{[l]}z[l] , z[l]z^{[l]}z[l] 是一个四维向量,假设为 z[l]=[52−13]z^{[l]}=\left[\begin{matrix}5\\2\\-1\\3\end{matrix}\right]z[l]=⎣⎢⎢⎡​52−13​⎦⎥⎥⎤​ ,我们要做的就是用这个元素取幂方法来计算 ttt ,所以 t=[e5e2e−1e3]t=\left[\begin{matrix}e^5\\e^2\\e^{-1}\\e^3\end{matrix}\right]t=⎣⎢⎢⎡​e5e2e−1e3​⎦⎥⎥⎤​ ,如果你按一下计算器就会得到以下值 t=[148.47.40.420.1]t=\left[\begin{matrix}148.4\\7.4\\0.4\\20.1\end{matrix}\right]t=⎣⎢⎢⎡​148.47.40.420.1​⎦⎥⎥⎤​ ,我们从向量 ttt 得到向量 a[l]a^{[l]}a[l] 就只需要将这些项目归一化,使总和为1。如果你把 ttt 的元素都加起来,把这四个数字加起来,得到176.3,最终 a[l]=t176.3a^{[l]}=\frac{t}{176.3}a[l]=176.3t​ 。

例如这里的第一个节点,它会输出 e5176.3=0.842\frac{e^5}{176.3}=0.842176.3e5​=0.842 ,这样说来,对于这张图片,如果这是你得到 zzz 的值( [52−13]\left[\begin{matrix}5\\2\\-1\\3\end{matrix}\right]⎣⎢⎢⎡​52−13​⎦⎥⎥⎤​ ),它是类0的概率就是84.2%。下一个节点输出 e2176.3=0.042\frac{e^2}{176.3}=0.042176.3e2​=0.042 ,也就是4.2%的几率。下一个是 e−1176.3=0.002\frac{e^{-1}}{176.3}=0.002176.3e−1​=0.002 。最后一个是 e3176.3=0.114\frac{e^3}{176.3}=0.114176.3e3​=0.114 ,也就是11.4%的概率属于类3,也就是小鸡组,对吧?这就是它属于类0,类1,类2,类3的可能性。

神经网络的输出 a[l]a^{[l]}a[l] ,也就是 y^\hat{y}y^​ ,是一个4×1维向量,这个4×1向量的元素就是我们算出来的这四个数字( [0.8420.0420.0020.114]\left[\begin{matrix}0.842\\0.042\\0.002\\0.114\end{matrix}\right]⎣⎢⎢⎡​0.8420.0420.0020.114​⎦⎥⎥⎤​ ),所以这种算法通过向量 z[l]z^{[l]}z[l] 计算出总和为1的四个概率。

如果我们总结一下从 z[l]z^{[l]}z[l] 到 a[l]a^{[l]}a[l] 的计算步骤,整个计算过程,从计算幂到得出临时变量 ttt ,再归一化,我们可以将此概括为一个Softmax激活函数。设 a[l]=g[l](z[l])a^{[l]}=g^{[l]}(z^{[l]})a[l]=g[l](z[l]) ,这一激活函数的与众不同之处在于,这个激活函数 ggg 需要输入一个4×1维向量,然后输出一个4×1维向量。之前,我们的激活函数都是接受单行数值输入,例如SigmoidReLu激活函数,输入一个实数,输出一个实数。Softmax激活函数的特殊之处在于,因为需要将所有可能的输出归一化,就需要输入一个向量,最后输出一个向量。

那么Softmax分类器还可以代表其它的什么东西么?我来举几个例子,你有两个输入 x1,x2x_1,x_2x1​,x2​ ,它们直接输入到Softmax层,它有三四个或者更多的输出节点,输出 y^\hat{y}y^​ ,我将向你展示一个没有隐藏层的神经网络,它所做的就是计算 z[1]=W[1]x+b[1]z^{[1]}=W^{[1]}x+b^{[1]}z[1]=W[1]x+b[1] ,而输出的出 a[l]a^{[l]}a[l] ,或者说 y^\hat{y}y^​ , a[l]=y=g(z[1])a^{[l]}=y=g(z^{[1]})a[l]=y=g(z[1]) ,就是 z[1]z^{[1]}z[1] 的Softmax激活函数,这个没有隐藏层的神经网络应该能让你对Softmax函数能够代表的东西有所了解。

这个例子中(左边图),原始输入只有 x1x_1x1​ 和 x2x_2x2​,一个 C=3C=3C=3 个输出分类的Softmax层能够代表这种类型的决策边界,请注意这是几条线性决策边界,但这使得它能够将数据分到3个类别中,在这张图表中,我们所做的是选择这张图中显示的训练集,用数据的3种输出标签来训练Softmax分类器,图中的颜色显示了Softmax分类器的输出的阈值,输入的着色是基于三种输出中概率最高的那种。因此我们可以看到这是logistic回归的一般形式,有类似线性的决策边界,但有超过两个分类,分类不只有0和1,而是可以是0,1或2。

这是(中间图)另一个Softmax分类器可以代表的决策边界的例子,用有三个分类的数据集来训练,这里(右边图)还有一个。对吧,但是直觉告诉我们,任何两个分类之间的决策边界都是线性的,这就是为什么你看到,比如这里黄色和红色分类之间的决策边界是线性边界,紫色和红色之间的也是线性边界,紫色和黄色之间的也是线性决策边界,但它能用这些不同的线性函数来把空间分成三类。

我们来看一下更多分类的例子,这个例子中(左边图) C=4C=4C=4 ,因此这个绿色分类和Softmax仍旧可以代表多种分类之间的这些类型的线性决策边界。另一个例子(中间图) C=5C=5C=5 是类,最后一个例子(右边图)是 C=6C=6C=6 ,这显示了Softmax分类器在没有隐藏层的情况下能够做到的事情,当然更深的神经网络会有 xxx ,然后是一些隐藏单元,以及更多隐藏单元等等,你就可以学习更复杂的非线性决策边界,来区分多种不同分类。

我希望你了解了神经网络中的Softmax层或者Softmax激活函数有什么作用,下一个视频中,我们来看一下你该怎样训练一个使用Softmax层的神经网络。

课程PPT





←上一篇 ↓↑ 下一篇→
3.7 测试时的 Batch Norm 回到目录 3.9 训练一个 Softmax 分类器

3.8 Softmax 回归-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授相关推荐

  1. 吴恩达deeplearning.ai系列课程笔记+编程作业(6)第二课 改善深层神经网络-第二周:优化算法 (Optimization algorithms)

    第二门课 改善深层神经网络:超参数调试.正则化以及优化(Improving Deep Neural Networks:Hyperparameter tuning, Regularization and ...

  2. 2.19 总结-深度学习-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 2.18 Logistic 损失函数的解释 回到目录 3.1 神经网络概览 文章目录 总结 习题 第 11 题 第 12 题 第 13 题 第 14 题 第 15 题 第 1 ...

  3. 1.8 其他正则化方法-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 1.7 理解 Dropout 回到目录 1.9 归一化输入 其他正则化方法 (Other Regularization Methods) 除了 L2L2L2 正则化和随机失活 ...

  4. 1.1 欢迎-深度学习第一课《神经网络与深度学习》-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 无 回到目录 1.2 什么是神经网络 欢迎 第一个视频主要讲了什么是深度学习,深度学习能做些什么事情.以下是吴恩达老师的原话: 深度学习改变了传统互联网业务,例如如网络搜索和 ...

  5. 3.12 总结-深度学习-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 3.11 随机初始化 回到目录 4.1 深层神经网络 文章目录 总结 习题 第 21 题 第 22 题 第 23 题 第 24 题 第 25 题 第 26 题 第 27 题 ...

  6. 深度学习教程(6) | 神经网络优化算法(吴恩达·完整版)

    作者:韩信子@ShowMeAI 教程地址:https://www.showmeai.tech/tutorials/35 本文地址:https://www.showmeai.tech/article-d ...

  7. 机器学习和深度学习到底怎么学?顶尖专家吴恩达告诉你

    机器学习和深度学习到底怎么学? 在外国版知乎上,有位网友问:新手如何学习机器学习?学习完MOOC的课程后有没有能力阅读研究论文或者真正的做出一点研究成果? 这个困惑很多人的问题吴恩达给出了详细的回答, ...

  8. 3.5 向量化实现的解释-深度学习-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 3.4 多个例子中的向量化 回到目录 3.6 激活函数 向量化实现的解释 (Explanation for Vectorized Implementation) 在上一个视频 ...

  9. 3.10 直观理解反向传播-深度学习-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 3.9 神经网络的梯度下降法 回到目录 3.11 随机初始化 直观理解反向传播 (Backpropagation Intuition (Optional)) 这个视频主要是推 ...

最新文章

  1. app分发平台java_集成 Asset Delivery (Java)
  2. 有头结点单链表的逆置
  3. mysql 开发包 安装_mysql的zip包的安装方法
  4. 使用商业模式的九大模块去分析京东的商业模式_【荐读】商业模式新生代
  5. Your account has been locked out. Please contact the system administrator for further assistance.
  6. markdown实现公式内实现换行(简单版)\\
  7. linuxdeploy ubuntu 更新gui_在Ubuntu和Linux Mint上释放空间的7种简单方法
  8. 在spring-boot中使用@ConfigurationProperties
  9. FillRect、FrameRect、Rectangle 矩形绘制函数使用对比分析
  10. 因为intel显卡和nvidia显卡驱动不兼容造成的ubuntu系统循环登录和黑屏问题解决方法
  11. 小白 0-1 学习 app 开发,从配置到 hello world
  12. Linux服务详解(主要基于RedHat系的及Centos默认服务详解)(综合整理)
  13. (42)2021-03-01(物体运动、swiper软件、自执行函数)
  14. Linux命令学习笔记(一)目录操作
  15. C++实现高并发Web服务器
  16. [转载]历上最强的音乐播放器(jetAudio-8.0.5.320-Plus-VX
  17. 工业4.0 资产管理壳学习笔记(1)
  18. 嵌入式软件单元测试/集成测试工具-WINAMS
  19. 从零学习 InfiniBand-network架构(十) —— IB协议中全局ID
  20. linux停止tomcat 8005,严重:无法联系localhost:8005.关闭tomcat服务器时,Tomcat可能没有运行错误....

热门文章

  1. 发送经纬度坐标给指定手机
  2. Linux命令(007) -- systemctl
  3. [dp]POJ2559 HDOJ1506 Largest Rectangle in a Histogram
  4. 浅谈 Request Response
  5. Visual C++ 2008入门经典 第九章类的继承和虚函数
  6. 解决调用HttpContext类
  7. .NET Remoting Basic(6)-配置文件
  8. 2007年的SEO优化趋势
  9. UA PHYS515 电磁理论II 静电场问题5 用Green函数法求解interior Dirichlet问题的例子
  10. 偏微分方程I PDE的例子1 一维波动与热传导方程