神经网络变学习率算法代码_机器学习算法之神经网络
点击蓝字关注我哦
人工神经网络(Artificial Neural Networks,ANN)系统是 20 世纪 40 年代后出现的。它是由众多的神经元可调的连接权值连接而成,具有大规模并行处理、分布式信息存储、良好的自组织自学习能力等特点。人工神经网络是由大量的简单基本元件——神经元相互联接而成的自适应非线性动态系统。本次实验任务带领大家学习如何使用Python代码实现神经网络算法。通过本任务,您将掌握以下内容:1.掌握神经网络的结构。2.掌握神经网络算法的原理。3.掌握使用Python语言实现神经网络算法。
【实验目的】
1.掌握神经网络算法的原理。
2.掌握使用Python语言实现神经网络算法。
【实验原理】
在机器学习和认知科学领域,人工神经网络(artificial neural network,缩写ANN),简称神经网络(neural network,缩写NN)或类神经网络,是一种模仿生物神经网络(动物的中枢神经系统,特别是大脑)的结构和功能的数学模型或计算模型,用于对函数进行估计或近似。神经网络由大量的人工神经元联结进行计算。大多数情况下人工神经网络能在外界信息的基础上改变内部结构,是一种自适应系统。现代神经网络是一种非线性统计性数据建模工具。我们来了解一下什么是神经元:
其中,x1、x2、x3代表输入,中间部分为神经元,而最后的hw,b(x)是神经元的输出。整个过程可以理解为输入——>处理——>输出。由多个神经元组成的就是神经网络,如下图所示,这是一个4层结构的神经网络,layer1为输入层,layer4为输出层,layer2,layer3为隐藏层,即神经网络的结构由输入层,隐藏层,输出层构成。其中除了输入层以外,每一层的输入都是上一层的输出。
典型的神经网络具有以下三个部分:
(1)结构 (Architecture) 结构指定了网络中的变量和它们的拓扑关系。例如,神经网络中的变量可以是神经元连接的权重(weights)和神经元的激励值(activities of the neurons)。
(2)激励函数(Activity Rule) 大部分神经网络模型具有一个短时间尺度的动力学规则,来定义神经元如何根据其他神经元的活动来改变自己的激励值。一般激励函数依赖于网络中的权重(即该网络的参数)。
(3)学习规则(Learning Rule)学习规则指定了网络中的权重如何随着时间推进而调整。这一般被看做是一种长时间尺度的动力学规则。一般情况下,学习规则依赖于神经元的激励值。它也可能依赖于监督者提供的目标值和当前权重的值。
【实验环境】
Ubuntu 16.04
Anaconda 4.3
python 3.6
Pycharm(Community)
【实验内容】
本次实验任务通过编写Python代码实现一个简单的2维平面神经网络分类器,去分割平面上的不同类别样本点。
【实验步骤】
1.打开Pycharm,新建项目,项目位置名称:/data/Test。
2.在项目名Test下,创建Python File文件。
3.创建以NN命名的文件。
4.在新创建的NN.py文件中,编写代码实现神经网络算法。
(1)首先准备数据,生成一份螺旋状分布的样本点。
view plain copy
N = 100
D = 2
K = 3
X = np.zeros((N*K,D))
y = np.zeros(N*K, dtype='uint8')
for j in range(K):
ix = range(N*j,N*(j+1))
r = np.linspace(0.0,1,N)
t = np.linspace(j*4,(j+1)*4,N) + np.random.randn(N)*0.2
X[ix] = np.c_[r*np.sin(t), r*np.cos(t)]
y[ix] = j
(2)单隐藏层的神经网络,2层权重和偏移量。
view plain copy
# 初始化参数
h = 100 # 隐层大小(神经元个数)
W1 = 0.01 * np.random.randn(D,h)
b1 = np.zeros((1,h))
W2 = 0.01 * np.random.randn(h,K)
b2 = np.zeros((1,K))
(3)2层神经网络的前向计算,使用ReLU神经单元。首先计算第一层神经网络结果,然后作为第二层的输入,计算最后的结果。
view plain copy
hidden_layer = np.maximum(0, np.dot(X, W1) + b1) # 用的 ReLU单元
scores = np.dot(hidden_layer, W2) + b2
(4)梯度回传与反向传播,对W2和b2的第一次计算。
view plain copy
dW2 = np.dot(hidden_layer.T, dscores)
db2 = np.sum(dscores, axis=0, keepdims=True)
(5)计算hidden_layer的梯度。
view plain copy
dhidden = np.dot(dscores, W2.T)
(6)梯度回传经过ReLU,回传的梯度大于0的时候,经过ReLU之后,保持原样;如果小于0,本次回传就到此结束。
view plain copy
dhidden[hidden_layer <= 0] = 0
(7)回到第一层,得到总的权重和偏移量的梯度。
view plain copy
dW = np.dot(X.T, dhidden)db = np.sum(dhidden, axis=0, keepdims=True)
(8)可视化数据和现在的决策边界。
view plain copy
h = 0.02
x_min, x_max = X[:, 0].min() - 1, X[:, 0].max() + 1
y_min, y_max = X[:, 1].min() - 1, X[:, 1].max() + 1
xx, yy = np.meshgrid(np.arange(x_min, x_max, h),
np.arange(y_min, y_max, h))
Z = np.dot(np.maximum(0, np.dot(np.c_[xx.ravel(), yy.ravel()], W1) + b1), W2) + b2
Z = np.argmax(Z, axis=1)
Z = Z.reshape(xx.shape)
fig = plt.figure()
plt.contourf(xx, yy, Z, cmap=plt.cm.Spectral, alpha=0.8)
plt.scatter(X[:, 0], X[:, 1], c=y, s=40, cmap=plt.cm.Paired ,marker='*')
plt.xlim(xx.min(), xx.max())
plt.ylim(yy.min(), yy.max())
plt.show()
完整代码如下:
view plain copy
import numpy as np
import matplotlib.pyplot as plt
N = 100
D = 2
K = 3
X = np.zeros((N*K,D))
y = np.zeros(N*K, dtype='uint8')
for j in range(K):
ix = range(N*j,N*(j+1))
r = np.linspace(0.0,1,N)
t = np.linspace(j*4,(j+1)*4,N) + np.random.randn(N)*0.2
X[ix] = np.c_[r*np.sin(t), r*np.cos(t)]
y[ix] = j
plt.scatter(X[:, 0], X[:, 1], c=y, s=40, cmap=plt.cm.Paired ,marker='*')
plt.show()
h = 100
W1 = 0.01 * np.random.randn(D, h)
b1 = np.zeros((1, h))
W2 = 0.01 * np.random.randn(h, K)
b2 = np.zeros((1, K))
step_size = 1e-0
reg = 1e-3
num_examples = X.shape[0]
for i in range(10000):
hidden_layer = np.maximum(0, np.dot(X, W1) + b1)
scores = np.dot(hidden_layer, W2) + b2
exp_scores = np.exp(scores)
probs = exp_scores / np.sum(exp_scores, axis=1, keepdims=True)
corect_logprobs = -np.log(probs[range(num_examples), y])
data_loss = np.sum(corect_logprobs) / num_examples
reg_loss = 0.5 * reg * np.sum(W1 * W1) + 0.5 * reg * np.sum(W2 * W2)
loss = data_loss + reg_loss
if i % 1000 == 0:
print ("iteration %d: loss %f" % (i, loss))
dscores = probs
dscores[range(num_examples), y] -= 1
dscores /= num_examples
dW2 = np.dot(hidden_layer.T, dscores)
db2 = np.sum(dscores, axis=0, keepdims=True)
dhidden = np.dot(dscores, W2.T)
dhidden[hidden_layer <= 0] = 0
dW = np.dot(X.T, dhidden)
db = np.sum(dhidden, axis=0, keepdims=True)
dW2 += reg * W2
dW += reg * W1
W1 += -step_size * dW
b1 += -step_size * db
W2 += -step_size * dW2
b2 += -step_size * db2
hidden_layer = np.maximum(0, np.dot(X, W1) + b1)
scores = np.dot(hidden_layer, W2) + b2
predicted_class = np.argmax(scores, axis=1)
print('training accuracy: %.2f' % (np.mean(predicted_class == y)))
h = 0.02
x_min, x_max = X[:, 0].min() - 1, X[:, 0].max() + 1
y_min, y_max = X[:, 1].min() - 1, X[:, 1].max() + 1
xx, yy = np.meshgrid(np.arange(x_min, x_max, h),
np.arange(y_min, y_max, h))
Z = np.dot(np.maximum(0, np.dot(np.c_[xx.ravel(), yy.ravel()], W1) + b1), W2) + b2
Z = np.argmax(Z, axis=1)
Z = Z.reshape(xx.shape)
fig = plt.figure()
plt.contourf(xx, yy, Z, cmap=plt.cm.Spectral, alpha=0.8)
plt.scatter(X[:, 0], X[:, 1], c=y, s=40, cmap=plt.cm.Paired ,marker='*')
plt.xlim(xx.min(), xx.max())
plt.ylim(yy.min(), yy.max())
plt.show()
4.右键,选择Run 'NN',运行程序。
运行结果如下:
分类前散点图:
使用构建后的神经网络分类后的散点图:
end
神经网络变学习率算法代码_机器学习算法之神经网络相关推荐
- bp神经网络预测python代码_机器学习之多层神经网络(附Python代码和数据)
1 引言 多层神经网络,Multiple-layers Perceptron (MLP),又被称为多层感知机,是机器学习中深度学习的典型算法.关于多层神经网络的算法原理,我们在Stata和R实现的文章 ...
- 正确率能很好的评估分类算法吗_机器学习算法优缺点对比及选择(汇总篇)
转自:机器学习与统计学 本文的目的,是务实.简洁地盘点一番当前机器学习算法.文中内容结合了个人在查阅资料过程中收集到的前人总结,同时添加了部分自身总结,在这里,依据实际使用中的经验,将对此模型优缺点及 ...
- 正确率能很好的评估分类算法吗_机器学习算法:分类知识超全总结!
关注上方"Python数据科学",选择星标,关键时间,第一时间送达! ☞500g+超全学习资源免费领取 Datawhale,译者:张峰本文将介绍机器学习算法中非常重要的知识-分类 ...
- k邻近算法python代码_机器学习算法之K近邻法-Python实现
一.算法简介 k近邻法(k-nearest neighbor,k-NN)是一种基本的分类方法,输入的是实例的特征向量,对应于特征空间的点,输出结果为实例的类别,可以取多类.对于训练集来说,每个实例的类 ...
- Interview:算法岗位面试—10.23下午—上海某科技公司算法岗位(偏机器学习算法,上市)技术面试之比赛积累、项目经验、个人未来发展
Interview:算法岗位面试-10.23下午-上海某科技公司算法岗位(偏机器学习算法,上市)技术面试之比赛积累.项目经验.个人未来发展 导读:该面试,是线上笔试通过之后,邀约的面试.整个面试过程比 ...
- 机器学习系列(9)_机器学习算法一览(附Python和R代码)
转载自:http://blog.csdn.net/longxinchen_ml/article/details/51192086 – 谷歌的无人车和机器人得到了很多关注,但我们真正的未来却在于能够使电 ...
- 转机器学习系列(9)_机器学习算法一览(附Python和R代码)
转自http://blog.csdn.net/han_xiaoyang/article/details/51191386 – 谷歌的无人车和机器人得到了很多关注,但我们真正的未来却在于能够使电脑变得更 ...
- apriori算法代码_资源 | 《机器学习实战》及代码(基于Python3)
〇.<机器学习实战> 今天推荐给大家的是<机器学习实战>这本书. 机器学习作为人工智能研究领域中一个极其重要的研究方向(一文章看懂人工智能.机器学习和深度学习),在当下极其热门 ...
- 判别两棵树是否相等 设计算法_机器学习算法-朴素贝叶斯
一.概述 概率分类器 在许多分类算法应用中,特征和标签之间的关系并非是决定性的.比如说,我们想预测一个人究竟是否会在泰坦尼克号海难中生存下来,那我们可以建一棵决策树来学习我们的训练集.在训练中,其中一 ...
最新文章
- php运行环境largon,环境配置(一)
- 青岛西海岸惠普大数据_青岛西海岸新区用好卫星大数据 为城市治理全面赋能...
- [css] 标签、class和id选择器三者的区别是什么?分别在什么时候用?
- centos5.8安装mysql5.3_CentOS 5.8 64位 源码安装mysql5.5.28
- 管理Exchange 2003注意事项
- 产品设计体会(8007)产品经理的主要职责
- java基础编程题库_JAVA基础编程练习题
- 分享数百个 HT 工业互联网 2D 3D 可视化应用案例之 2019
- linux修复windows,Linux十大妙用:充当Windows修复工具
- 【高等数学】第 5 讲 偏导数
- excel常用操作收集
- 攻防世界WEB题练习
- java编程思想学习笔记(第七章:复用类)
- 8款最佳的开源在线学习CMS系统[转]
- iOS平台epub阅读器推荐
- ChainNode测评:比特护盾 Watch2代硬件钱包
- jquery带缩略图轮播_带有jQuery和PHP的新鲜滑动缩略图库
- String 对象 与 StringBuilder 对象的比较.....
- 项目:网上图书购买系统
- jQuery 图片轮播插件
热门文章
- 灵活而又可怕的params参数数组
- 【摩天好课推荐】2.4 Python代码常见的逻辑结构
- scikit-learn一般实例之一:绘制交叉验证预测
- WEB 前端跨域解决方案
- 从库存管理系统,体验活字格强大的移动端应用开发能力
- ActFrameWork集成Beetlsql的Mapper功能
- hdu1978(递推dp)
- js快速判断IE浏览器(兼容IE10与IE11)
- 解决X64操作系统PL/SQL连接报错问题 make sure you have the 32 bits oracle client installed
- quartus 修改 时钟_FPGAQuartusII时钟约束.doc