人工神经网络是有一系列简单的单元相互紧密联系构成的,每个单元有一定数量的实数输入和唯一的实数输出。神经网络的一个重要的用途就是接受和处理传感器产生的复杂的输入并进行自适应性的学习,是一种模式匹配算法,通常用于解决分类和回归问题。

  常用的人工神经网络算法包括:感知机神经网络(Perceptron Neural Nerwork)、反向传播网络(Back Propagation,BP)、HopField网络、自组织映射网络(Self-Organizing Map,SOM)、学习矢量量化网络(Learning Vector Quantization,LVQ)

1、感知机模型

  感知机是一种线性分类器,它用于二类分类问题。它将一个实例分类为正类(取值+1)和负类(-1)。其物理意义:它是将输入空间(特征空间)划分为正负两类的分离超平面。

  输入:线性可分训练数据集T,学习率η

  输出:感知机参数w,b

  算法步骤:

    1)选取初始值w0和b0

    2)在训练数据集中选取数据(xi,yi)

    3)若y1(w.xi+b)<=0(即该实例为误分类点)则更新参数:w=w+η.yi.xi   b=b+η.yi

    4)在训练数据集中重复选取数据来更新w,b直到训练数据集中没有误分类点为止

  实验代码:

  1 from matplotlib import pyplot as plt
  2 from mpl_toolkits.mplot3d import Axes3D
  3 import numpy as np
  4 from sklearn.datasets import load_iris
  5 from sklearn.neural_network import MLPClassifier
  6
  7
  8 def creat_data(n):
  9     np.random.seed(1)
 10     x_11=np.random.randint(0,100,(n,1))
 11     x_12=np.random.randint(0,100,(n,1,))
 12     x_13 = 20+np.random.randint(0, 10, (n, 1,))
 13     x_21 = np.random.randint(0, 100, (n, 1))
 14     x_22 = np.random.randint(0, 100, (n, 1))
 15     x_23 = 10-np.random.randint(0, 10, (n, 1,))
 16
 17     # print(x_11)
 18     # print(x_12)
 19     # print(x_13)
 20     # print(x_21)
 21     # print(x_22)
 22     # print(x_23)
 23
 24     # rotate 45 degrees along the X axis
 25     new_x_12=x_12*np.sqrt(2)/2-x_13*np.sqrt(2)/2
 26     new_x_13 = x_12 * np.sqrt(2) / 2 + x_13 * np.sqrt(2) / 2
 27     new_x_22=x_22*np.sqrt(2)/2-x_23*np.sqrt(2)/2
 28     new_x_23 = x_22 * np.sqrt(2) / 2 + x_23 * np.sqrt(2) / 2
 29
 30     # print(new_x_12)
 31     # print(new_x_13)
 32     # print(new_x_22)
 33     # print(new_x_23)
 34
 35     plus_samples=np.hstack([x_11,new_x_12,new_x_13,np.ones((n,1))])
 36     minus_samples=np.hstack([x_11,new_x_22,new_x_23,-np.ones((n,1))])
 37     samples=np.vstack([plus_samples,minus_samples])
 38     # print(samples)
 39     np.random.shuffle(samples)
 40
 41     # print(plus_samples)
 42     # print(minus_samples)
 43     # print(samples)
 44
 45     return  samples
 46
 47 def plot_samples(ax,samples):
 48     Y=samples[:,-1]
 49     Y=samples[:,-1]
 50     # print(Y)
 51     position_p=Y==1 ##the position of positve class
 52     position_m=Y==-1 ##the position of minus class
 53     # print(position_p)
 54     # print(position_m)
 55     ax.scatter(samples[position_p,0],samples[position_p,1],samples[position_p,2],marker='+',label="+",color='b')
 56     ax.scatter(samples[position_m,0],samples[position_m,1],samples[position_m,2],marker='^',label='-',color='y')
 57
 58 def perceptron(train_data,eta,w_0,b_0):
 59     x=train_data[:,:-1] #x data
 60     y=train_data[:,-1] #corresponding classification
 61     length=train_data.shape[0] #the size of sample==the row number of the train_data
 62     w=w_0
 63     b=b_0
 64     step_num=0
 65     while True:
 66         i=0
 67         while(i<length): #traverse all sample points in a sample set
 68             step_num+=1
 69             x_i=x[i].reshape((x.shape[1],1))
 70             y_i=y[i]
 71             if y_i*(np.dot(np.transpose(w),x_i)+b)<=0: #the point is misclassified
 72                 w=w+eta*y_i*x_i #gradient descent
 73                 b=b+eta*y_i
 74                 break;#perform the next round of screening
 75             else: #the point is not a misclassification point select the next sample point
 76                 i=i+1
 77         if(i==length):
 78             break
 79     return (w,b,step_num)
 80
 81 def creat_hyperplane(x,y,w,b):
 82     return (-w[0][0]*x-w[1][0]*y-b)/w[2][0]  #w0*x+w1*y+w2*z+b=0
 83
 84
 85
 86
 87 data=creat_data(100)
 88 eta,w_0,b_0=0.1,np.ones((3,1),dtype=float),1
 89 w,b,num=perceptron(data,eta,w_0,b_0)
 90
 91 fig=plt.figure()
 92 plt.suptitle("perceptron")
 93 ax=Axes3D(fig)
 94 #draw samplt point
 95 plot_samples(ax,data)
 96 #draw hyperplane
 97 x=np.linspace(-30,100,100)
 98 y=np.linspace(-30,100,100)
 99 x,y=np.meshgrid(x,y)
100 z=creat_hyperplane(x,y,w,b)
101 ax.plot_surface(x,y,z,rstride=1,cstride=1,color='g',alpha=0.2)
102
103 ax.legend(loc='best')
104 plt.show()

View Code

  实验结果:

  注:算法中,最外层循环只有在全部分类正确的这种情况下退出;内层循环从前到后遍历所有的样本点。一旦发现某个样本点是误分类点,就更新w和b,然后重新从头开始遍历所有的样本点。感知机算法的对偶形式(参考原著)其处理效果与原始算法相差不大,但是从其输出的α数组值可以看出:大多数的样本点对于最终解并没有贡献。分离超平面的位置是由少部分重要的样本点决定的。而感知机学习算法的对偶形式能够找出这些重要的样本点。这就是支持向量机的原理。

  一开始我在create data时,公式写错了,导致所得到的数据线性不可分,此时发现算法根本无法完成迭代。可见感知机算法只能够用于线性可分数据集。  

2、神经网络

(1)从感知机到神经网络:M-P神经元模型

  1)每个神经元接收到来自相邻神经元传递过来的输入信号

  2)这些输入信号通过带权重的连接进行传递

  3)神经元接收到的总输入值将与神经元的阈值进行比较,然后通过“激活函数”处理以产生神经元输出

  4)理论上的激活函数为阶跃函数

                        1,x>=0

                        f(x)=

                        0,x<0

(2)多层前馈神经网络

  通常神经网络的结构为:1)每层神经元与下一层神经元全部互连  2)同层神经元之间不存在连接  3)跨层神经元之间也不存在连接

  多层前馈神经网络具有以下特点:1)隐含层和输出层神经元都是拥有激活函数的功能神经元  2)输入层接收外界输入信号,不进行激活函数处理  3)最终结果由输出层神经元给出

  神经网络的学习就是根据训练数据集来调整神经元之间的连接权重,以及每个功能神经元的阈值。

  多层前馈神经网络的学习通常采用误差逆传播算法(error  BackPropgation,BP):该算法是训练多层神经网络的经典算法,其从原理上就是普通的梯度下降法求最小值问题。它关键的地方在于两个:1)导数的链式法则  2)sigmoid激活函数的性质:sigmoid函数求导的结果等于自变量的乘积形式

  多层前馈网络若包含足够多神经元的隐含层,则它就能够以任意精度逼近任意复杂度的连续函数

  实验代码:

 1 from matplotlib import pyplot as plt
 2 from mpl_toolkits.mplot3d import Axes3D
 3 import numpy as np
 4 from sklearn.datasets import load_iris
 5 from sklearn.neural_network import MLPClassifier
 6
 7 def creat_data_no_linear(n):
 8     np.random.seed(1)
 9     x_11=np.random.randint(0,100,(n,1))
10     x_12=10+np.random.randint(-5,5,(n,1,))
11
12     x_21 = np.random.randint(0, 100, (n, 1))
13     x_22 = 20+np.random.randint(0, 10, (n, 1))
14
15     x_31 = np.random.randint(0, 100, (int(n/10),1))
16     x_32 = 20+np.random.randint(0, 10, (int(n/10), 1))
17
18
19     # print(x_11)
20     # print(x_12)
21     # print(x_13)
22     # print(x_21)
23     # print(x_22)
24     # print(x_23)
25
26     # rotate 45 degrees along the X axis
27     new_x_11 = x_11 * np.sqrt(2) / 2 - x_12 * np.sqrt(2) / 2
28     new_x_12=x_11*np.sqrt(2)/2+x_12*np.sqrt(2)/2
29     new_x_21 = x_21 * np.sqrt(2) / 2 - x_22 * np.sqrt(2) / 2
30     new_x_22=x_21*np.sqrt(2)/2+x_22*np.sqrt(2)/2
31     new_x_31 = x_31 * np.sqrt(2) / 2 - x_32 * np.sqrt(2) / 2
32     new_x_32 = x_31 * np.sqrt(2) / 2 + x_32 * np.sqrt(2) / 2
33
34     # print(new_x_12)
35     # print(new_x_13)
36     # print(new_x_22)
37     # print(new_x_23)
38
39     plus_samples=np.hstack([new_x_11,new_x_12,np.ones((n,1))])
40     minus_samples=np.hstack([new_x_21,new_x_22,-np.ones((n,1))])
41     err_samples=np.hstack([new_x_31,new_x_32,np.ones((int(n/10),1))])
42     samples=np.vstack([plus_samples,minus_samples,err_samples])
43     # print(samples)
44     np.random.shuffle(samples)
45
46     # print(plus_samples)
47     # print(minus_samples)
48     # print(samples)
49
50     return  samples
51
52 def plot_samples_2d(ax,samples):
53     Y=samples[:,-1]
54     # print(Y)
55     position_p=Y==1 ##the position of positve class
56     position_m=Y==-1 ##the position of minus class
57     # print(position_p)
58     # print(position_m)
59     ax.scatter(samples[position_p,0],samples[position_p,1],marker='+',label="+",color='b')
60     ax.scatter(samples[position_m,0],samples[position_m,1],marker='^',label='-',color='y')
61
62 def predict_with_MLPClassifier(ax,train_data):
63     train_x=train_data[:,:-1]
64     train_y=train_data[:,-1]
65     clf=MLPClassifier(activation='logistic',max_iter=1000)
66     clf.fit(train_x,train_y)
67     print(clf.score(train_x,train_y))
68
69     x_min,x_max=train_x[:,0].min()-1,train_x[:,0].max()+2
70     y_min,y_max=train_x[:,1].min()-1,train_x[:,1].max()+2
71     plot_step=1
72
73     xx,yy=np.meshgrid(np.arange(x_min,x_max,plot_step),np.arange(y_min,y_max,plot_step))
74     Z=clf.predict(np.c_[xx.ravel(),yy.ravel()])
75     Z=Z.reshape(xx.shape)
76     ax.contourf(xx,yy,Z,cmap=plt.cm.Paired)
77
78 fig=plt.figure()
79 ax=fig.add_subplot(1,1,1)
80 data=creat_data_no_linear(500)
81 predict_with_MLPClassifier(ax,data)
82 plot_samples_2d(ax,data)
83 ax.legend(loc='best')
84 plt.show()

View Code

  实验结果:

  生成的实验数据

  样例(对鸢尾花进行分类)代码:

 1 from matplotlib import pyplot as plt
 2 from mpl_toolkits.mplot3d import Axes3D
 3 import numpy as np
 4 from sklearn.datasets import load_iris
 5 from sklearn.neural_network import MLPClassifier
 6
 7 def load_data():
 8     iris=load_iris()
 9     X=iris.data[:,0:2] #choose the first two features
10     Y=iris.target
11     data=np.hstack((X,Y.reshape(Y.size,1)))
12     np.random.seed(0)
13     np.random.shuffle(data)
14     X=data[:,:-1]
15     Y=data[:,-1]
16     x_train=X[:-30]
17     x_test=X[-30:]
18     y_train=Y[:-30]
19     y_test=Y[-30:]
20
21     return x_train,x_test,y_train,y_test
22
23 def neural_network_sample(*data):
24     x_train,x_test,y_train,y_test=data
25     cls=MLPClassifier(activation='logistic',max_iter=10000,hidden_layer_sizes=(30,))
26     cls.fit(x_train,y_train)
27     print("the train score:%.f"%cls.score(x_train,y_train))
28     print("the test score:%.f"%cls.score(x_test,y_test))
29
30 x_train,x_test,y_train,y_test=load_data()
31
32 neural_network_sample(x_train,x_test,y_train,y_test)

View Code

  实验结果:

  这里的score居然等于1。。。书上给的数据是0.8,不知道是因为算法改进了还是怎么回事。

  注:在进行编码实现时遇到了一些小插曲,就是Anaconda的sklearn并不是完整的,当导入MLPClassifier时会出错,因为其中0.17的版本的scikit-learn中并不包括这个库。所以接下来要做的就是更新Anaconda的相关库。这时候问题就来了,更新时,网速极慢,只有6k/s,并且十几秒后就会报错,错误原因是无法连接某些网址。起初我以为是网速的问题,尝试了各种方式,调整了网络通各个端口去试都没有用,甚至想到了换网线和换网络通账号,结果还是不行。后来想到会不会是要FQ,于是参照着这个网址:http://blog.sina.com.cn/s/blog_920b83770102xjxp.html,翻了一下,发现并不能访问youtube,这让我感到很难受。抱着试试的态度我又重新敲起了更新的指令,这次居然奇迹般的可以了!!!后来一想youtube之所以打不开,可能是浏览器的设置问题,vpn本身是可以用的。有种天道酬勤的感觉!

  不过这也让我很好的反思了一下。遇到问题时一定要认真分析可能的原因,而不是盲目的去猜,甚至愚蠢的去多次尝试之前并没有生效的方法,这样会浪费太多的时间。解决问题一定是从可能性最大的错误着手,并且要加以分析,否则不仅时间浪费了,自信心也受到了打击,人也会弄的疲劳不堪。

转载于:https://www.cnblogs.com/acm-jing/p/7571372.html

python大战机器学习——人工神经网络相关推荐

  1. 机器学习——人工神经网络之BP算法编程(python二分类数据集:马疝病数据集)

    目录 一.理论知识回顾 1.神经网络模型 2.明确任务以及参数 1)待估参数: 2)超参数: 3)任务 3.神经网络数学模型定义 1)激活函数 ​ 2)各层权重.阈值定义 3)各层输入输出定义 4.优 ...

  2. 每周一本书之《Python大战机器学习:数据科学家的第一个小目标》

    数据科学家可谓是当下炙手可热的职业,机器学习则是他们的必备技能.机器学习在大数据分析中居于核心地位,在互联网.金融保险.制造业.零售业.医疗等产业领域发挥了越来越大的作用且日益受到关注. Python ...

  3. python 图片识别 机械手_6图片识别物品_清华编程高手尹成带你用python大战机器学习_机器学习视频-51CTO学院...

    清华编程高手尹成带你用python大战机器学习 机器学习是一门多领域交叉学科,涉及概率论.统计学.逼近论.凸分析.算法复杂度理论等多门学科.专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或 ...

  4. 机器学习——人工神经网络之后向传播算法(BP算法)

    目录 一.后向传播算法的本质--梯度下降法求局部极值 1.w迭代公式的合理性 二.后向传播算法的推导(以二层神经网络为例) 1.问题描述(创建目标函数loss函数,求参数) 2.求解参数的流程(四步曲 ...

  5. 机器学习——人工神经网络之多层神经网络(多层与三层)

    目录 一.多层神经网络 1.多层神经网络数学模型 2.数学模型中的非线性函数fai 1)非线性函数fai存在的意义 2)非线性函数fai具体是什么? 3.多层神经网络与单层神经网络的区别与改进 1)单 ...

  6. 机器学习——人工神经网络之发展历史(神经元数学模型、感知器算法)

    目录 一.神经元的数学模型 ​ 二.感知器算法(SVM算法前身) 1.目的 2.流程 >>>问题1:下图w和b的调整是什么意思? 3.算法的有效性验证 1)原算法 2)增广矩阵 3) ...

  7. 自序-----《Python大战机器学习:数据科学家的第一个小目标》

    自序 <Python大战机器学习:数据科学家的第一个小目标>本书以快速上手.四分理论六分实践为出发点,讲述机器学习的算法和Python 编程实践,采用"原理笔记精华+ 算法Pyt ...

  8. 人工智能-机器学习人工神经网络

    机器学习 机器学习部分主要学习的内容是朴素贝叶斯算法和决策树算法. 机器学习研究计算机如何模拟人类的学习行为,获取新的知识或新的技能,重新组织已有知识改善自身性能,使得计算机具有人的学习能力,从而实现 ...

  9. 吴裕雄 python 机器学习——人工神经网络与原始感知机模型

    import numpy as npfrom matplotlib import pyplot as plt from mpl_toolkits.mplot3d import Axes3D from ...

最新文章

  1. 从面试角度一文学完 Kafka
  2. springMVC中Dispatcher中的/和/*的区别
  3. NSArray 与 NSMutableArray 的排序
  4. 反引号包裹反引号_五个金色反引号
  5. SQL Server数据库快照
  6. Windows系统单网卡配置双IP双网关
  7. 通过draggable实现布局_营销推广引流之百度霸屏内容详解 如何通过百度霸屏布局实现立体打法!...
  8. python中debug和run有什么区别_android应用程序开发中run和debug 有什么区别?
  9. matlab生成点的坐标,根据点的发展坐标,将点的轨迹画出来
  10. 陕西省高等数学竞赛_陕西省高等数学竞赛试题答案
  11. 34.【日期】计算后续日期--北京理工大学编程题
  12. 解密中国网络游戏业的黑暗骑士:响尾马(下)
  13. STM32串口通信DMA方式
  14. (JavaScript)浮动广告代码
  15. XTT钠盐 XTT sodium salt/Resorufin (high purity) 还原酶底物
  16. 如何正确计算导入Excel的行数(POI/NPOI)
  17. 电脑mac地址的查看的三种方式
  18. 从简单的线性方程开始了解Paddle Fluid 的全连接层 FC
  19. 程序猿的移民加拿大后的所感
  20. 2013上半年,Google Chrome正式版最新版本,又增加什么小功能!

热门文章

  1. CIO应当牢记iPhone的七条安全建议
  2. 软件测试行业中ta表示什么意思,温度冲击测试ta/tc分别代表什么意思
  3. matlab并联lc谐振电路图,串联谐振和并联谐振LC电路操作
  4. mysql 根据经纬度查询距离
  5. 计算机组成原理白学了,再次回顾浮点数加减
  6. 开帖:做网络试验如何选择模拟器eNSP,PNET,EVE-NG,GNS3,cisco
  7. python 通过腾讯地图API获取全国关键词(楼盘/商场)位置信息
  8. MPC多旋翼控制 - 线性MPC代码解读(mav_control_rw项目)
  9. 微信引流方法之闲鱼引流
  10. Delphi 10.3.1 Memo打开/保存utf-8不乱码的方法,网上都是胡天!