激励函数:

有人说翻译成“激活函数”(activation function)会更好,因为主要作用是分割数据,判断该“神经”是否被激活。比如说,当你判断面前的动物是否是一只猫的时候,你会从各个部分去判断。比如眼睛,当你觉得确实像猫的眼睛时,判断眼睛的神经数值会特别高,如果觉得比较像,则会相对低一点,在神经网络算法中,可以说,激励函数就是分割这个神经判断是与否的准则。
某些数据是可以被线性分割的,但是也有很多数据是不可被线性分割的,因此,激励函数也是多种多样的。

三层神经网:

以下是一个最简单的三层神经网络结构,代码中都有注释,输入层,隐藏层,输出层。其中,输入层,输出层为1个神经元,隐藏层为10个神经元,并且训练1000次。目的是为了让x_data数据与y_data数据进行拟合。
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as pltdef add_layer(inputs,in_size,out_size,activation_function=None): #activation_function=None线性函数Weights = tf.Variable(tf.random_normal([in_size,out_size])) #Weight中都是随机变量biases = tf.Variable(tf.zeros([1,out_size])+0.1) #biases推荐初始值不为0Wx_plus_b = tf.matmul(inputs,Weights)+biases #inputs*Weight+biasesif activation_function is None:outputs = Wx_plus_belse:outputs = activation_function(Wx_plus_b)return outputs#创建数据x_data,y_data
x_data = np.linspace(-1,1,300)[:,np.newaxis] #[-1,1]区间,300个单位,np.newaxis增加维度
noise = np.random.normal(0,0.05,x_data.shape) #噪点
y_data = np.square(x_data)-0.5+noisexs = tf.placeholder(tf.float32,[None,1])
ys = tf.placeholder(tf.float32,[None,1])
#三层神经,输入层(1个神经元),隐藏层(10神经元),输出层(1个神经元)
l1 = add_layer(xs,1,10,activation_function=tf.nn.relu) #输入层
prediction = add_layer(l1,10,1,activation_function=None) #隐藏层#predition值与y_data差别
loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys-prediction),reduction_indices=[1])) #square()平方,sum()求和,mean()平均值train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss) #0.1学习效率,minimize(loss)减小loss误差init = tf.initialize_all_variables()
sess = tf.Session()
sess.run(init) #先执行init#可视化
fig = plt.figure()
ax = fig.add_subplot(1,1,1)
ax.scatter(x_data,y_data)
plt.ion() #不让show() block
plt.show()#训练1k次
for i in range(1000):sess.run(train_step,feed_dict={xs:x_data,ys:y_data})if i%50==0:try:ax.lines.remove(lines[0]) #lines建一个抹除一个except Exception:pass#print(sess.run(loss,feed_dict={xs:x_data,ys:y_data})) #输出loss值#可视化prediction_value = sess.run(prediction,feed_dict={xs:x_data,ys:y_data})lines = ax.plot(x_data,prediction_value,'r-',lw=5) #x_data X轴,prediction_value Y轴,'r-'红线,lw=5线宽5plt.pause(0.1) #暂停0.1秒

结果:

附:常见激励函数类型:

激励函数简介 Tensorflow最简单的三层神经网络及matplotlib可视化 附激励函数常见类型相关推荐

  1. 最简单的三层神经网络Matlab实现

    人工神经网络(Artificial Neural Network, ANN)[1]具有很广的应用.理论上来说,采用多层的神经网络能够逼近任何的连续函数,而不管该函数是否平滑.自从SVM出现后,大家都快 ...

  2. tensorflow随笔——简单的循环神经网络分类实例

    继上一篇用简单的卷积神经网络做mnist分类之后,本篇文章采用RNN替换CNN写了一个mnist分类实例.实例中包含两个文件: train.py:数据加载和训练代码. # coding=utf-8 i ...

  3. tensorflow 搭建简单的卷积神经网络,输入二维数组完成分类

    目录 一.数据处理 二.搭建cnn模型 三.训练并测试模型 一.数据处理 导入数据 #导入数据 X=pd.read_csv('data.csv',header=None) X=np.array(tes ...

  4. tensorflow随笔——简单的卷积神经网络分类实例

    下例是用tensorflow写的2层cnn+2层fc的一个卷积神经网络做mnist的分类例子,旨在简单明了,过一遍TF代码的分类流程. 实例只有两个文件: train.py:数据读取,模型训练. # ...

  5. 深度学习之利用TensorFlow实现简单的卷积神经网络(MNIST数据集)

    卷积神经网络(Convolutional Neural Networks, CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习 ...

  6. 基于Tensorflow 三层神经网络拟合二次函数(附代码与解析)

    文章目录 前言 一.隐藏层函数 二.生成二次函数与损失函数 1.二次函数与画图 2.损失函数 三.训练数据 总结 前言 刚入手深度学习,结合这几天看的视频与内容,将其整合成文章 提示:以下是本篇文章正 ...

  7. 一个简单的BP神经网络matlab程序(附函数详解)

    说明:20180604更新 1.此文的程序来自博客:http://www.cnblogs.com/heaad/archive/2011/03/07/1976443.html 2.本人对其中涉及到的函数 ...

  8. Tensorflow神经网络框架 小例子 三层神经网络 卷积神经网络 循环神经网络 神经网络可视化

    Tensorflow神经网络框架 以前我们讲了神经网络基础,但是如果从头开始实现,那将是一个庞大且费时的工作,所以我们选择一条捷径---神经网络框架.我理解的神经网络框架就相当于一个工具包.就比如我们 ...

  9. 用三层神经网络识别手写数字

    前两章讲了搭建简单的三层神经网络和用三层神经网络识别mnist数据集.识别mnist数据集时有人已经把数字整理成像素值,我们只需要把像素值的大小调整下就可以当做输入值传入神经网络中,但是如果给我们一张 ...

最新文章

  1. python职能-高级Python开发工程师职位描述与岗位职责任职要求
  2. Unity FixedUpdate 与 Update 的线程关系实验
  3. Django从理论到实战(part26)--ORM模型
  4. android 仿真翻页动画,Android 两Activity之间动画效果(1)---------翻页效果
  5. Ubuntu下安装配置JDK
  6. java安全(四) JNDI
  7. 一步一步学Entity FrameWork 4(1)
  8. 测试管理工具QC第一篇-QC安装步骤(史上最详细的图解过程)-第一篇
  9. matlab作函数图像,matlab绘制函数图像
  10. 计算机系统应用 莫军,ARINC653分区操作系统多核处理器任务调度设计
  11. ACCESS数据库基本使用
  12. 大自然教给我们“知足”的生存方式
  13. python股票查询可视化代码
  14. 【★】IT界8大恐怖预言
  15. ZIP压缩算法原理解析(好文推荐,看完就懂)
  16. 【转】完美解决iphone连电脑蓝牙出现bluetooth外围设备无法正确安装
  17. 基于flowable的审批系统安装及部署
  18. 特斯拉蛇形充电机器人_特斯拉也造出蛇形机器人,专为充电使用!
  19. 爱了爱了!java是不是比前端难
  20. 著名超导论文被Nature撤稿

热门文章

  1. Google AdSense广告赚钱之技巧篇!
  2. AVB之镜像的签名及验证签名详解
  3. 量子计算(一):量子计算是什么
  4. RuntimeError: Sizes of tensors must match except in dimension 1. Got 61 and 60 in dimension 2
  5. 使用gatekeeper限制kubernetes创建特定类型的资源
  6. 基于 shell 的自动邮件任务监测器
  7. 水下图像增强算法研究
  8. 轻量化AlphaPose
  9. PiXYZStudio:Revit 模型轻量化
  10. 老板到底能不能,监控到电脑版微信聊天?