神经网络(4)---神经网络是如何帮助我们学习复杂的nonlinear hypotheses
神经网络是如何一步步进行计算的,以及对计算过程的向量化
Z1(2),Z2(2),Z3(2) are just weighted linear combination of input value x1,x2,x3.上图右边灰色框里面的为Z(2),为3*1矩阵。
a1(2)=g(Z1(2))......a(2)为3*1的矩阵,对Z(2) 里面的每个元素应用g函数.
上述的计算我们可以分为两步,一步是计算Z(2),一步是计算a(2),如上图所示。
我们将input的x定义为a(1),所以将x写成a(1)(将其做为第一层的activations).
增加bias unit,a0(2)=1,则a(2)为4*1矩阵.
最后的结果,计算z(3),和a(3)=hΘ(x)=g(z(3)).
这个计算的过程也称为forward propagation,因为它的计算从input到output是一层一层推进(activation)的.我们将其计算过程向量化了,若我们按照右边绿色框中的进行计算的话,用矩阵与向量进行计算,这样计算更高效。
Neural network learning its own features
如果我们将左边的input遮住,只看右部分的话,和logistic regression很相似,如果我们只看右边蓝色部分的式子的话,我们会发现它和标准的logistic regression model是一样的(除了我们使用的是大写的Θ),但是这部分所做的就是logistic regression,但是它的input是由hidden layer(layer 2)计算后的输出,即这部分所做的和logistic regression是一样的,除了logistic regression输入是x1,x2,x3,而它的输入是a1(2),a2(2),a3(2).
a1(2),a2(2),a3(2)它们是自己learn function from input,从layer1到layer2的function是由Θ(1)来构成的,所以神经网络不是feed x1,x2,x3 to logistic regression,而是自己学习自己的features(a1(2),a2(2),a3(2)),然后将它们feed into logistic regression,并且取决于我们选择的Θ(1),你可以学习一些非常有趣复杂的features,然后你会得出一个better hypotheses(相比使用原始的x1,x2,x3或者x1,x2,x3的多项式来说),总之算法在选择参数上是灵活的,选择了参数后得到a1(2),a2(2),a3(2),然后再将它们feed into logistic regression(即最后一个结点).
神经网络结构
architectures是指神经网络的连接方式,上图是一种不同的neural network architecture, layer2可以接收来自layer1的输入,然后计算出复杂的features,layer3接收来自layer2的输入,计算出更为复杂的features,layer4接收layer3的输出计算出比layer3复杂的features,然后得到very interesting nonlinear hypotheses.
layer1是input layer,layer4是output layer,layer2和layer3是hidden layer,除了input layer和output layer之外的layer叫做hidden layer.
总结:
1,知道了什么叫做forward propagation(传播),从input layer到hidden layer再到output layer
2, 了解在计算中如何向量化来提高我们的计算效率
转载于:https://www.cnblogs.com/yan2015/p/4995278.html
神经网络(4)---神经网络是如何帮助我们学习复杂的nonlinear hypotheses相关推荐
- 神经网络(1)--Non-linear hypotheses,为什么我们要学习神经网络这种算法来处理non-linear hypotheses...
神经网络(1)--No-linear hypotheses 为什么我们已经有了linear regression与logistic regression算法还要来学习神经网络这个另外的算法呢,让我们来 ...
- 干货丨从感知机到深度神经网络,带你入坑深度学习
作者:Adi Chris 机器之心编译 参与:朱乾树.刘晓坤 机器学习工程师 Adi Chris 最近学习完吴恩达在 Coursera 上的最新课程后,决定写篇博客来记录下自己对这一领域的理解.他建议 ...
- 深度学习 2 机器学习 神经网络 卷积神经网络
机器学习 无监督学习 监督学习 半监督学习 强化学习 经验中总结提升 遗传算法 适者生存不是者淘汰 什么是神经网络 Neural Network 人工神经元 数学模型 计算机模型 人工神经网络在外界信 ...
- 二、ZFNet可视化卷积神经网络——可解释性机器学习(DataWhale组队学习)
目录 引言 ZFNet的网络结构 可视化反卷积 反池化 反激活 反卷积 训练细节 特征可视化 特征演化 特征不变性 局部遮挡测试 敏感性分析 相关性分析 消融实验 宽度影响 深度影响 迁移学习能力 有 ...
- 神经网络知识梳理——从神经元到深度学习
在深度学习十分火热的今天,不时会涌现出各种新型的人工神经网络,想要实时了解这些新型神经网络的架构还真是不容易.光是知道各式各样的神经网络模型缩写(如:DCIGN.BiLSTM.DCGAN--还有哪些? ...
- 图深度学习——卷积神经网络循环神经网络自编码器
卷积神经网络 常用做图像分类任务.举例:识别图中的兔子 前馈神经网络做兔子图像识别 图像可以通过矩阵表示,然后将矩阵转换成向量,就可以作为前馈神经网络的输入,但是 1.参数量就非常大,需要大量数据进行 ...
- 图机器学习(GML)图神经网络(GNN)原理和代码实现(前置学习系列二)
图机器学习(GML)&图神经网络(GNN)原理和代码实现(PGL)[前置学习系列二] 上一个项目对图相关基础知识进行了详细讲述,下面进图GML networkx :NetworkX 是一个 P ...
- 吴恩达深度学习 4.1 卷积神经网络-卷积神经网络基础
1. 知识点 计算机视觉:图片分类.目标检测.图片风格迁移等 对于小尺寸图片,可以用深度神经网络模型学习预测.但对于大尺寸图片,输入数据规模大,用深度神经网络会有非常多的参数需要学习,不再合适. 卷积 ...
- 一个专门用来模仿飞蛾识别味道的神经网络,说明了为什么飞蛾的学习速度远超机器-----转载
一个专门用来模仿飞蛾识别味道的神经网络,说明了为什么飞蛾的学习速度远超机器 原创: DeepTech深科技 3月15日 作为现代机器学习基石的深度神经网络,虽然模仿的是生物神经网络,但其实这两者之间有 ...
最新文章
- DATA GUARD架构(一)
- Beta 冲刺(4/7)
- Flash和滚动字幕
- EXPORT_SYMBOL使用
- php 显示变量类型
- mysql 分组group
- 37.JavaScript对象与JSON格式的转换,JSON.stringify、JSON.parse方法的使用方法和注意事项
- 初级程序员软考重难点知识整理(持续更新)
- CAD如何在线查看图纸?
- Week15 - 程序设计思维与实践 - 字符串算法
- 坚守梦想,善待苦难,等幸福来敲门
- vue实现浏览器桌面通知
- java 判断汉字_Java 完美判断中文字符的方法
- java 计算日期相差天数_Java 计算两个日期相差的天数
- Terraform指南:安装
- python week 获取 星期 第几周 开始日期 结束日期 星期几
- 堆栈指针寄存器-SP详解
- Spring-Boot启动方式,以及线上部署
- sublime text3 配置python、ruby、c/c++(c/c++不推荐这个方法)
- Nike新款鞋子型錄 vgav wluj yltn