本文是 2020人工神经网络第一次作业 的参考答案第四部分

04 第四题参考答案


1.使用BP网络逼近Hermit函数

f(x)=1.1(1−x+2x2)⋅e−x22f\left( x \right) = 1.1\left( {1 - x + 2x^2 } \right) \cdot e^{ - {{x^2 } \over 2}}f(x)=1.1(1−x+2x2)⋅e−2x2​

▲ Hermit函数 以及相关函数随机采集数据(红色)

def Hermit(x):return 1.1 * (1 - x + 2 * x * x) * exp(-x**2/2)x = linspace(-4, 4, 250)
fx = Hermit(x)sx = random.uniform(-4, 4, 100)
fs = Hermit(sx) + random.normal(0, 0.1, len(sx))

(1) 隐层节点:10

▲ 网络结构

上述BP网络实现程序参见后附录中的:1.BP网络函数逼近程序

训练超参数:

  • 学习速率:η=0.5\eta = 0.5η=0.5
    ▲ 收敛过程中网络输出输入之间函数变化过程

▲ 网络训练误差收敛曲线

(2) 不同隐层节点个数

  • 隐层三个节点:

▲ 隐层三个节点训练过程

▲ 隐层三个节点网络误差收敛曲线

  • 隐层节点数量:20

▲ 隐层20个节点网络训练过程
▲ 隐层20个节点网络误差收敛过程

(3) 不同隐层节点数目与网络误差

构造不同隐层节点数量(2,3,…,10),使用学习速率0.5, 训练10000循环,对应的网络收敛后的不同的误差。

隐层节点个数 2 3 4 5 6 7 8 9 10
网络逼近误差 0.1122 0.0202 0.00927 0.0102 0.01016 0.00704 0.01017 0.006515 0.009511

▲ 不同的隐层节点对应网络逼近误差

从上面训练结果可以看到,当隐层节点大于等4之后,网络对于Hermit函数逼近的精度就降低到0.01之下了。

2.使用RBF网络进行函数逼近

(1) 训练样本

样本数取32个。在[-4,4]之间均匀分布,同样添加标准差为0.1的正态分布噪声。下面红色点为加有噪声之后的训练样本。

▲ Hermit函数以及均匀采样的32个样本

def Hermit(x):return 1.1 * (1 - x + 2 * x * x) * exp(-x**2/2)x_line = linspace(-4, 4, 250)
y_line = Hermit(x_line)
x_train = linspace(-4, 4, 30)
y_train = Hermit(x_train) + random.normal(0, 0.1, len(x_train))

(2) 网络结构

构建RBF网络,选择RBF网络隐层节点的个数Nh∈(3,30)N_h \in \left( {3,\,\,\,30} \right)Nh​∈(3,30)。隐层节点的径向基函数采用高斯函数形式的函数:

f(x)=e−∣x−xc∣22σ2f\left( x \right) = e^{ - {{\left| {x - x_c } \right|^2 } \over {2\sigma ^2 }}}f(x)=e−2σ2∣x−xc​∣2​

每个隐层神经元的参数包括:中心xcx_cxc​,方差:σ\sigmaσ。

RBF网络Python实现程序参见后面附录中的:2.RBF网络实现程序

(3) 网络训练

由于训练样本是在(-4,4)之间的均匀采样,所以构造隐层节点的中心xcx_cxc​位置也在(-4,4)之间均匀采样。隐层节点的方差取隐层节点中心平均距离:σ=8Nh\sigma = {8 \over {N_h }}σ=Nh​8​。

▲ RBF网络结构

在这里,选取网络隐层节点个数:Nh=10N_h = 10Nh​=10。

隐层各节点的中心位置:

Node#10 -4.00 -3.11 -2.22 -1.33 -0.44 0.44 1.33 2.22 3.11 4.00

根据训练样本{xi,yi}i=1,⋯,30\left\{ {x_i ,y_i } \right\}_{i = 1, \cdots ,30}{xi​,yi​}i=1,⋯,30​,计算出隐层对应的输出矩阵:H30={h1,h2,⋯,h30}H_{30} = \left\{ {h_1 ,h_2 , \cdots ,h_{30} } \right\}H30​={h1​,h2​,⋯,h30​},其中每个hih_ihi​都对应着某一个样本xix_ixi​输入之后得到的隐层输出。

RBF网络输出为:y^i=WT⋅hi\hat y_i = W^T \cdot h_iy^​i​=WT⋅hi​

其中WWW是隐层到网络试试部分的链接权系数。

将样本的期望输出组成向量:yˉ={y1,y2,⋯,y30}T\bar y = \left\{ {y_1 ,y_2 , \cdots ,y_{30} } \right\}^Tyˉ​={y1​,y2​,⋯,y30​}T

对于隐层到输出节点的加权系数WWW,可以直接通过求取伪逆的方式获得:

WT=yˉ⋅(H30T⋅H30+λ⋅I30)−1⋅H30TW^T = \bar y \cdot \left( {H_{30}^T \cdot H_{30} + \lambda \cdot I_{30} } \right)^{ - 1} \cdot H_{30}^TWT=yˉ​⋅(H30T​⋅H30​+λ⋅I30​)−1⋅H30T​

其中λ⋅I30\lambda \cdot I_{30}λ⋅I30​加入放置矩阵求逆出现奇异设定的。λ\lambdaλ可以选取一个比较小的数值,比如0.0001。

(4) 训练结果

通过上方法得到RBF网络参数:隐层节点的径向基函数的中心点,方差,隐层到输出层的加权系数,RBF网络便设计完成了。

下面是网络构建之后,实际对应的函数关系。对于训练样本数据,网络的误差为:Var([y^i−yi]i=1,2,⋯,30)=0.00569Var\left( {\left[ {\hat y_i - y_i } \right]_{i = 1,2, \cdots ,30} } \right) = 0.00569Var([y^​i​−yi​]i=1,2,⋯,30​)=0.00569

▲ 隐层节点为10 的情况下RBF网络函数拟合的结果

(5) 不同隐层节点对应训练误差

选取网络中间隐层节点的个数NhN_hNh​从3变化到30,对应网络训练结果如下。

▲ 不同隐层节点数量对应网络结果

随着RBF网络隐层节点个数从3变化到30,对应的网络训练误差的变化曲线如下:

▲ 不同网络隐层节点个数对应网络训练误差

可以看到其中当网络节点大于8之后,网络训练误差就变得非常小了。

(6) 隐层节点的方差对于函数逼近的影响

为了展示RBF隐层节点的方差参数对于网络设计的影响,下面去网络隐层节点的方法从0.001变化的4的过程中,对应网络训练误差的影响。

在下面的例子中,选取隐层节点的个数Nh=8N_h = 8Nh​=8。

▲ 不同隐层节点方差对应的网络训练结果

下面显示了网络训练误差随着隐层节点方差的变化的情况。可以看出当方差在σ=8Nh=88=1\sigma = {8 \over {N_h }} = {8 \over 8} = 1σ=Nh​8​=88​=1附近是,对应的网络训练方差接近最小。

▲ 不同隐层节点方差对应网络训练误差曲线

➤※ 作业1-4中的程序


1.BP网络函数逼近程序

#!/usr/local/bin/python
# -*- coding: gbk -*-
#============================================================
# HW14BP.PY                    -- by Dr. ZhuoQing 2020-11-17
#
# Note:
#============================================================from headm import *#------------------------------------------------------------
# Samples data constructionrandom.seed(int(time.time()))#------------------------------------------------------------
def Hermit(x):return 1.1 * (1 - x + 2 * x * x) * exp(-x**2/2)x_data = random.uniform(-4, 4, 100)
y_data = Hermit(x_data) + random.normal(0, 0.1, len(x_data))x_data = x_data.reshape(-1, 1)
y_data = y_data.reshape(1, -1)xx = linspace(-4, 4, 250)
yy = Hermit(xx)#------------------------------------------------------------
def shuffledata(X, Y):id = list(range(X.shape[0]))random.shuffle(id)return X[id], (Y.T[id]).T#------------------------------------------------------------
# Define and initialization NN
def initialize_parameters(n_x, n_h, n_y):W1 = random.randn(n_h, n_x) * 0.5          # dot(W1,X.T)W2 = random.randn(n_y, n_h) * 0.5          # dot(W2,Z1)b1 = zeros((n_h, 1))                       # Column vectorb2 = zeros((n_y, 1))                       # Column vectorparameters = {'W1':W1,'b1':b1,'W2':W2,'b2':b2}return parameters#------------------------------------------------------------
# Forward propagattion
# X:row->sample;
# Z2:col->sample
def forward_propagate(X, parameters):W1 = parameters['W1']b1 = parameters['b1']W2 = parameters['W2']b2 = parameters['b2']Z1 = dot(W1, X.T) + b1                    # X:row-->sample; Z1:col-->sampleA1 = 1/(1+exp(-Z1))
#    A1 = (1-exp(-Z1))/(1+exp(-Z1))Z2 = dot(W2, A1) + b2                     # Z2:col-->sampleA2 = Z2                                   # Linear outputcache = {'Z1':Z1,'A1':A1,'Z2':Z2,'A2':A2}return Z2, cache#------------------------------------------------------------
# Calculate the cost
# A2,Y: col->sample
def calculate_cost(A2, Y, parameters):err = [x1-x2 for x1,x2 in zip(A2.T, Y.T)]cost = [dot(e,e) for e in err]return mean(cost)#------------------------------------------------------------
# Backward propagattion
def backward_propagate(parameters, cache, X, Y):m = X.shape[0]                  # Number of the samplesW1 = parameters['W1']W2 = parameters['W2']A1 = cache['A1']A2 = cache['A2']dZ2 = (A2 - Y)dW2 = dot(dZ2, A1.T) / mdb2 = sum(dZ2, axis=1, keepdims=True) / mdZ1 = dot(W2.T, dZ2) * (A1 * (1-A1))
#    dZ1 = dot(W2.T, dZ2) * (1-A1**2)dW1 = dot(dZ1, X) / mdb1 = sum(dZ1, axis=1, keepdims=True) / mgrads = {'dW1':dW1,'db1':db1,'dW2':dW2,'db2':db2}return grads#------------------------------------------------------------
# Update the parameters
def update_parameters(parameters, grads, learning_rate):W1 = parameters['W1']b1 = parameters['b1']W2 = parameters['W2']b2 = parameters['b2']dW1 = grads['dW1']db1 = grads['db1']dW2 = grads['dW2']db2 = grads['db2']W1 = W1 - learning_rate * dW1W2 = W2 - learning_rate * dW2b1 = b1 - learning_rate * db1b2 = b2 - learning_rate * db2parameters = {'W1':W1,'b1':b1,'W2':W2,'b2':b2}return parameters#------------------------------------------------------------
# Define the training
DISP_STEP           = 100#------------------------------------------------------------
pltgif = PlotGIF()#------------------------------------------------------------
def train(X, Y, num_iterations, learning_rate, print_cost=False):n_x = 1n_y = 1n_h = 10lr = learning_rateparameters = initialize_parameters(n_x, n_h, n_y)XX,YY = shuffledata(X, Y)costdim = []x = linspace(-4, 4, 250).reshape(-1,1)for i in range(0, num_iterations):A2, cache = forward_propagate(XX, parameters)cost = calculate_cost(A2, YY, parameters)grads = backward_propagate(parameters, cache, XX, YY)parameters = update_parameters(parameters, grads, lr)if print_cost and i % DISP_STEP == 0:printf('Cost after iteration:%i: %f'%(i, cost))costdim.append(cost)plt.clf()y,cache = forward_propagate(x, parameters)plt.plot(x.reshape(-1,1), y.reshape(-1,1), linewidth=3, color='r', label='Step:%d'%i)plt.plot(xx, yy, color='gray')plt.scatter(XX, YY, color='gray')plt.xlabel("x")plt.ylabel("f(x)")plt.grid(True)plt.tight_layout()plt.legend(loc='upper right')plt.draw()plt.pause(.1)pltgif.append(plt)if cost < 0.0001:breakXX,YY = shuffledata(X, Y)return parameters, costdim#------------------------------------------------------------
parameter,costdim = train(x_data, y_data, 10000, 0.5, True)
pltgif.save(r'd:\temp\1.gif')printf('cost:%f'%costdim[-1])#------------------------------------------------------------
plt.clf()
plt.plot(arange(len(costdim))*DISP_STEP, costdim)
plt.xlabel("Step(10)")
plt.ylabel("Cost")
plt.grid(True)
plt.tight_layout()
plt.show()#------------------------------------------------------------
#        END OF FILE : HW14BP.PY
#============================================================

2.RBF网络实现程序

#!/usr/local/bin/python
# -*- coding: gbk -*-
#============================================================
# HM14RBF.PY                   -- by Dr. ZhuoQing 2020-11-19
#
# Note:
#============================================================from headm import *#------------------------------------------------------------
random.seed(3)#------------------------------------------------------------
def Hermit(x):return 1.1 * (1 - x + 2 * x * x) * exp(-x**2/2)x_line = linspace(-4, 4, 250)
y_line = Hermit(x_line)RBF_SAMPLE_NUMBER       = 30
x_train = linspace(-4, 4, RBF_SAMPLE_NUMBER)
y_train = Hermit(x_train) + random.normal(0, 0.1, len(x_train))'''
plt.plot(x_line, y_line)
plt.scatter(x_train, y_train, color='r')
plt.xlabel("x,")
plt.ylabel("f(x)")
plt.title('Hermit Function and Training Set')
plt.grid(True)
plt.tight_layout()
plt.show()
'''
#------------------------------------------------------------
# calculate the rbf hide layer output
# x: Input vector:
# H: Hide node : row->sample
# sigma: variance of RBFdef rbf_hide_out(x, H, sigma):Hx = H - xHxx = [exp(-dot(e,e)/(sigma**2*2)) for e in Hx]return Hxxdef rbf(x, H, sigma, W):Hx = H - xHxx = array([exp(-dot(e,e)/(sigma**2*2)) for e in Hx]).reshape(-1, 1)return (dot(W.T, Hxx))#------------------------------------------------------------
y_train = y_train.reshape(1, -1)def rbf_train_sim(node=10,sigma=1):RBF_HIDE_NODE       = nodeRBF_HIDE_SIGMA      = sigmaHnode = linspace(-4, 4, RBF_HIDE_NODE).reshape(-1,1) # row-->sampleHout = array([rbf_hide_out(x, Hnode, RBF_HIDE_SIGMA) for x in x_train]).TW = dot(y_train, dot(linalg.inv(eye(RBF_SAMPLE_NUMBER)*0.0001+dot(Hout.T,Hout)),Hout.T)).Tyout = dot(W.T, Hout)err = yout - y_trainerror = var(err)return W, Hnode, error#------------------------------------------------------------
err_dim = []
node_dim = []
pltgif = PlotGIF()for s in linspace(0.001, 4, 50):W, Hnode, error = rbf_train_sim(8, s)err_dim.append(error)node_dim.append(s)y_rbf = [rbf(x, Hnode, s, W)[0] for x in x_line]plt.clf()plt.plot(x_line, y_line, linewidth=1, color='gray', label='origin')plt.scatter(x_train, y_train, color='r', label='Training data')plt.plot(x_line, y_rbf, linewidth=3, color='blue', label='RBF')plt.xlabel("x")plt.ylabel("f(x)")plt.grid(True)plt.title('RBF Hide Node Sigma:%5.2f'%s)plt.legend(loc="upper right")plt.tight_layout()
#    plt.show()plt.draw()plt.pause(0.1)pltgif.append(plt)#------------------------------------------------------------pltgif.save(r'd:\temp\1.gif')
plt.clf()
plt.plot(node_dim, err_dim)
plt.xlabel("Node Number")
plt.ylabel("Error")
plt.grid(True)
plt.tight_layout()
plt.show()#------------------------------------------------------------
#        END OF FILE : HM14RBF.PY
#============================================================

2020人工神经网络第一次作业-参考答案第四部分相关推荐

  1. 2020人工神经网络第一次作业-参考答案第十部分-第三小题

    本文是 2020人工神经网络第一次作业 的参考答案第十部分 ➤第十题参考答案-第3小题 1.题目分析 识别图像是在黑色背景下的四个点组成的目标.它具有特定的方向. ▲ 图片样例 图片的基本参数为: 图 ...

  2. 2020人工神经网络第一次作业-参考答案第十部分

    本文是 2020人工神经网络第一次作业 的参考答案第十部分 ➤第十题参考答案-第1小题 1.题目分析 (1)数据集分析 数据集合包括有两个目录:test, train.其中分别包括有95,510张车牌 ...

  3. 2020人工神经网络第一次作业-参考答案第九部分

    本文是 2020人工神经网络第一次作业 的参考答案第九部分 ➤09 第九题参考答案 1.数据整理 根据char7data.txt中的文件将训练样本(21个字符)以及对应的输出值转化到两个矩阵:char ...

  4. 2020人工神经网络第一次作业-参考答案第八部分

    本文是 2020人工神经网络第一次作业 的参考答案第八部分 ➤08 第八题参考答案 1.题目分析 (1) 数据下载 从https://www.cosy.sbg.ac.at/~pmeerw/Waterm ...

  5. 2020人工神经网络第一次作业-参考答案第七部分

    本文是 2020人工神经网络第一次作业 的参考答案第七部分 ➤07 第七题参考答案 1.题目分析 使用AutoEncoder对于下面样本进行压缩: ▲ 样本英文字符 说明:上面数据可以从作业文件:AB ...

  6. 2020人工神经网络第一次作业-参考答案第六部分

    本文是 2020人工神经网络第一次作业 的参考答案第六部分 ➤06 第六题参考答案 1.题目分析 按照题意,构造如下的神经网络. 隐层的传递函数使用sigmoid函数,输出层的传递函数采用线性传递函数 ...

  7. 2020人工神经网络第一次作业-参考答案第五部分

    本文是 2020人工神经网络第一次作业 的参考答案第五部分 ➤05 第五题参考答案 1.题目分析 MATLAB中的Peaks函数是一个二元函数,构造BP网络来逼近该函数,网络的输入节点数量为2,输出节 ...

  8. 2020人工神经网络第一次作业-参考答案第三部分

    本文是 2020人工神经网络第一次作业 的参考答案第三部分 ➤03 第三题参考答案 1.构造BP网络进行函数逼近 (1) 逼近简单函数 构建单隐层的神经网络,隐层节点个数20,传递函数为sigmoid ...

  9. 2020人工神经网络第一次作业-参考答案第二部分

    本文是 2020人工神经网络第一次作业 的参考答案第二部分 ➤02 第二题答案参考 1.问题描述 原题要求设计一个神经网络对于下面图中的3类模式进行分类.期望输出分别使用: (1,−1,−1)T,(− ...

最新文章

  1. 95%粉丝失联,小编感觉像失恋?
  2. 欧拉定理(洛谷-P5091)(十进制快速幂实现)
  3. java 继承重写_java 封装 继承 重写 多态
  4. swagger 配置- ssm
  5. 猜51CTO的人群结构
  6. c语言发牌小游戏,大家想想怎么用c实现我们经常玩的斗地主游戏的发牌过程呢?...
  7. python培训价目表-python培训班费用在多少?
  8. 编程珠玑笔记-第12章习题
  9. 广色域图片Android,Android Q将支持广色域照片
  10. 不为人知的网络编程(八):从数据传输层深度解密HTTP
  11. 高铁线路开通数据(更新至2021年10月)
  12. 原型工具Axure:常用效果制作(选中、淘宝网导航、轮播图、toast效果、呼出键盘、省市二级联动、步进器、订单详情案例、中继器)
  13. ElasticSearch实战系列二: ElasticSearch的DSL语句使用教程---图文详解
  14. 卷积神经网络:一个模块化视角
  15. 阿里云的WEB应用防火墙(WAF)能抵挡什么攻击
  16. 怎样用键盘控制电脑的光标
  17. Web服务器站点设置和IIS安装设置图解
  18. C语言-飞机航班订票系统
  19. css盒模型(css盒模型包括)
  20. 【动态规划】股票交易日

热门文章

  1. 设计模式(简单工厂模式)
  2. linux c 笔记 文件(三)
  3. Nginx做前端代理时缓存与否的性能差别
  4. IBM投资4000万美圆,加强对SAP®应用的支持
  5. 介绍一个.Net资源站点
  6. 在Visual Studio中使用序列图描述对象之间的互动
  7. proto buffer
  8. 使用purge_relay_logs 清理relay log
  9. 第九章、文件与文件系统的压缩与打包 3. 打包命令: tar
  10. 无线路由器桥接与覆盖