神经网络是如何一步步进行计算的,以及对计算过程的向量化

Z1(2),Z2(2),Z3(2) are just weighted linear combination of input value x1,x2,x3.上图右边灰色框里面的为Z(2),为3*1矩阵。

a1(2)=g(Z1(2))......a(2)为3*1的矩阵,对Z(2) 里面的每个元素应用g函数.

上述的计算我们可以分为两步,一步是计算Z(2),一步是计算a(2),如上图所示。

我们将input的x定义为a(1),所以将x写成a(1)(将其做为第一层的activations).

增加bias unit,a0(2)=1,则a(2)为4*1矩阵.

最后的结果,计算z(3),和a(3)=hΘ(x)=g(z(3)).

这个计算的过程也称为forward propagation,因为它的计算从input到output是一层一层推进(activation)的.我们将其计算过程向量化了,若我们按照右边绿色框中的进行计算的话,用矩阵与向量进行计算,这样计算更高效。

Neural network learning its own features

如果我们将左边的input遮住,只看右部分的话,和logistic regression很相似,如果我们只看右边蓝色部分的式子的话,我们会发现它和标准的logistic regression model是一样的(除了我们使用的是大写的Θ),但是这部分所做的就是logistic regression,但是它的input是由hidden layer(layer 2)计算后的输出,即这部分所做的和logistic regression是一样的,除了logistic regression输入是x1,x2,x3,而它的输入是a1(2),a2(2),a3(2).

a1(2),a2(2),a3(2)它们是自己learn function from input,从layer1到layer2的function是由Θ(1)来构成的,所以神经网络不是feed x1,x2,x3 to logistic regression,而是自己学习自己的features(a1(2),a2(2),a3(2)),然后将它们feed into logistic regression,并且取决于我们选择的Θ(1),你可以学习一些非常有趣复杂的features,然后你会得出一个better hypotheses(相比使用原始的x1,x2,x3或者x1,x2,x3的多项式来说),总之算法在选择参数上是灵活的,选择了参数后得到a1(2),a2(2),a3(2),然后再将它们feed into logistic regression(即最后一个结点).

神经网络结构

architectures是指神经网络的连接方式,上图是一种不同的neural network architecture, layer2可以接收来自layer1的输入,然后计算出复杂的features,layer3接收来自layer2的输入,计算出更为复杂的features,layer4接收layer3的输出计算出比layer3复杂的features,然后得到very interesting nonlinear hypotheses.

layer1是input layer,layer4是output layer,layer2和layer3是hidden layer,除了input layer和output layer之外的layer叫做hidden layer.

总结:

1,知道了什么叫做forward propagation(传播),从input layer到hidden layer再到output layer

2, 了解在计算中如何向量化来提高我们的计算效率

转载于:https://www.cnblogs.com/yan2015/p/4995278.html

神经网络(4)---神经网络是如何帮助我们学习复杂的nonlinear hypotheses相关推荐

  1. 神经网络(1)--Non-linear hypotheses,为什么我们要学习神经网络这种算法来处理non-linear hypotheses...

    神经网络(1)--No-linear hypotheses 为什么我们已经有了linear regression与logistic regression算法还要来学习神经网络这个另外的算法呢,让我们来 ...

  2. 干货丨从感知机到深度神经网络,带你入坑深度学习

    作者:Adi Chris 机器之心编译 参与:朱乾树.刘晓坤 机器学习工程师 Adi Chris 最近学习完吴恩达在 Coursera 上的最新课程后,决定写篇博客来记录下自己对这一领域的理解.他建议 ...

  3. 深度学习 2 机器学习 神经网络 卷积神经网络

    机器学习 无监督学习 监督学习 半监督学习 强化学习 经验中总结提升 遗传算法 适者生存不是者淘汰 什么是神经网络 Neural Network 人工神经元 数学模型 计算机模型 人工神经网络在外界信 ...

  4. 二、ZFNet可视化卷积神经网络——可解释性机器学习(DataWhale组队学习)

    目录 引言 ZFNet的网络结构 可视化反卷积 反池化 反激活 反卷积 训练细节 特征可视化 特征演化 特征不变性 局部遮挡测试 敏感性分析 相关性分析 消融实验 宽度影响 深度影响 迁移学习能力 有 ...

  5. 神经网络知识梳理——从神经元到深度学习

    在深度学习十分火热的今天,不时会涌现出各种新型的人工神经网络,想要实时了解这些新型神经网络的架构还真是不容易.光是知道各式各样的神经网络模型缩写(如:DCIGN.BiLSTM.DCGAN--还有哪些? ...

  6. 图深度学习——卷积神经网络循环神经网络自编码器

    卷积神经网络 常用做图像分类任务.举例:识别图中的兔子 前馈神经网络做兔子图像识别 图像可以通过矩阵表示,然后将矩阵转换成向量,就可以作为前馈神经网络的输入,但是 1.参数量就非常大,需要大量数据进行 ...

  7. 图机器学习(GML)图神经网络(GNN)原理和代码实现(前置学习系列二)

    图机器学习(GML)&图神经网络(GNN)原理和代码实现(PGL)[前置学习系列二] 上一个项目对图相关基础知识进行了详细讲述,下面进图GML networkx :NetworkX 是一个 P ...

  8. 吴恩达深度学习 4.1 卷积神经网络-卷积神经网络基础

    1. 知识点 计算机视觉:图片分类.目标检测.图片风格迁移等 对于小尺寸图片,可以用深度神经网络模型学习预测.但对于大尺寸图片,输入数据规模大,用深度神经网络会有非常多的参数需要学习,不再合适. 卷积 ...

  9. 一个专门用来模仿飞蛾识别味道的神经网络,说明了为什么飞蛾的学习速度远超机器-----转载

    一个专门用来模仿飞蛾识别味道的神经网络,说明了为什么飞蛾的学习速度远超机器 原创: DeepTech深科技 3月15日 作为现代机器学习基石的深度神经网络,虽然模仿的是生物神经网络,但其实这两者之间有 ...

最新文章

  1. DATA GUARD架构(一)
  2. Beta 冲刺(4/7)
  3. Flash和滚动字幕
  4. EXPORT_SYMBOL使用
  5. php 显示变量类型
  6. mysql 分组group
  7. 37.JavaScript对象与JSON格式的转换,JSON.stringify、JSON.parse方法的使用方法和注意事项
  8. 初级程序员软考重难点知识整理(持续更新)
  9. CAD如何在线查看图纸?
  10. Week15 - 程序设计思维与实践 - 字符串算法
  11. 坚守梦想,善待苦难,等幸福来敲门
  12. vue实现浏览器桌面通知
  13. java 判断汉字_Java 完美判断中文字符的方法
  14. java 计算日期相差天数_Java 计算两个日期相差的天数
  15. Terraform指南:安装
  16. python week 获取 星期 第几周 开始日期 结束日期 星期几
  17. 堆栈指针寄存器-SP详解
  18. Spring-Boot启动方式,以及线上部署
  19. sublime text3 配置python、ruby、c/c++(c/c++不推荐这个方法)
  20. Nike新款鞋子型錄 vgav wluj yltn

热门文章

  1. Odoo----异常、错误、警告、提示、确认信息显示
  2. 判断二极管导通例题_几种二极管的检测方法(普通,稳压,双向触发)
  3. 解决Python使用playsound播放音频报错:在用引号括起的字符串不能指定额外的字符
  4. Apache运维中常用功能配置笔记梳理
  5. 医学自然语言处理(NLP)相关论文汇总之 NAACL 2021
  6. 软考证书三大含金量,你了解吗?
  7. Pandas的panel结构
  8. runtime从入门到精通(九)—— 万能界面跳转
  9. HTML5游戏化互动学习平台,h5游戏平台_触摸型互动slg黄油手游
  10. 现代控制原理专业词汇中英文对照