深度学习(DL)与卷积神经网络(CNN)学习笔记随笔-04-基于Python的LeNet之MLP
原文地址可以查看更多信息
本文主要参考于:Multilayer Perceptron
python源代码(github下载 CSDN免费下载)
本文主要介绍含有单隐层的MLP的建模及实现。建议在阅读本博文之前,先看一下LR的实现。因为LR是简化版的MLP。LR不含有单隐层,则其输入层直接连接到输出层。从何处可以看出LR是输入层直接连接输出层?借用上一博文的公式:P(Y=i|x,W,b)=softmaxi(Wx+b)。其中,x是输入层,softmax是激活函数,P就是输出层了。我们将其化简并转换为一般神经网络表达式:f(x)=g(Wx+b),其中g就是激活函数,f(x)就是输出层了。可见输入层经过激活函数得到的结果就是输出了。很简单吧。
那么MLP的模型公式和LR又有什么不同呢?下面来看一下MLP的模型建立。
一、模型
从MLP的结构图中可以看出输入层与隐藏层全连接,然后,隐藏层与输出层全连接。那么整体的函数映射就是 f:RD→RL ,其中 D 是输入向量 x 的维度, L 是输出向量 f(x) 的维度。用矩阵表示整个三层之间的关系如下:
f(x)=G(W(2)(S(W(1)x+b(1)))+b(2))
其中,b(1),b(2)分别是三层之间(输入层与隐层、隐层与输出层之间)的偏置向量;W(1),W(2)分别是三层之间的权值矩阵;而S,G是分别是三层之间的激活函数。
对于连接单隐层的的表达式h(x)=Φ(x)=S(W(1)x+b(1)),其激活函数S常用的有tanh(a)=(ea−e−a)(ea+e−a)和sigmoid(a)=1(1+e−a)函数。在这里,我们将使用tanh作为激活函数,因为它通常能更快的达到训练目标。
对于连接输出层的表达式o(x)=G(W(2)h(x)+b(2)),我们应该不是很陌生,就是在篇头或上一篇博文中讲到的LR的模型表达式,在那里面其激活函数用的是softmax,它可以用来多分类,那么在这里,G也是采用softmax多分类器来分类。
接下来就是训练模型获取最佳参数,我们这里仍然采用MSGD(批量随机梯度下降法)方法。这里我们需要学习的参数为θ={W(2),b(2),W(1),b(1)}。同样,对于用链式法则求梯度∂ℓ/∂θ,我们就用theano已经实现的T.grad()方法。
讲到这里小伙伴们或许有疑问了:没有代价函数怎么求梯度啊?也就是∂ℓ/∂θ中的ℓ是什么啊?很简单,就是和LR中的代价函数基本是一样的(在后边还会讲到cost代价函数为什么是基本一样而不是一样),因为结构都是一样的,我们同样要处理的是对于手写数字MNIST的识别。最小化方法也是采用负对数似然函数,所以这里的ℓ一清二楚了吧,还不清楚的,可以翻看LR的(二、定义代价函数)。
二、MLP代码实现
我们主要关注实现含单隐层的MLP(只要单隐层的实现了,多隐层的就是多实例化几个隐层而已)。MLP的实现包括3部分:输入层、隐层、输出层。
第一层:输入层就是我们直接的输入数据x,将其直接输入到第二层;
第二层:隐层的功能是用tanh函数处理第一层的输入数据,并将结果作为第三层的输入数据。因此需要我们用代码实现,即根据LR实现一个隐层类;
第三层:输出层的功能是将第二层的输入数据经过softmax函数,然后进行分类输出。因此和LR是一样的,所以这里直接调用上一篇定义的LR类-LogisticRegression类。
先提前讲一下隐层权值的初始化问题。在LR类中,权值矩阵初始化为0。然而在隐层中就不能再初始化为0了,而是依据激活函数从symmetric interval(对称间隔)中均匀采样。这样初始化是为了确保在训练早期,每一个神经元都可以向后传播(upward)激活信息,向前传播(backward )梯度数据。也就是说在这一层用到了梯度反向传播,那么权值矩阵就不能初始化为0,不知道解释的如何?原文:(This initialization ensures that, early in training, each neuron operates in a regime of its activation function where information can easily be propagated both upward (activations flowing from inputs to outputs) and backward (gradients flowing from outputs to inputs))。
那么具体的均匀采样范围是什么呢?
对于函数tanh来说,interval为:[−6fanin+fanout−−−−−−−−−√,6fanin+fanout−−−−−−−−−√],其中fanin是第(i−1)层的单元个数;fanout是第i层的单元个数。如果对应到本实验,第(i−1)层就是输入层,输入层输入数据是样本数据,因此其单元个数是样本数据的长度;第i层就是隐层,其单元个数是需要实例化时传入的。具体的看下方代码。
对于函数sigmoid来说,interval为:[−46fanin+fanout−−−−−−−−−√,46fanin+fanout−−−−−−−−−√]。
可以从文献Xavier10中获取以上范围的来因。是一个大牛写的论文,如果能看懂也很牛。
部分代码:
<code class="language-python hljs has-numbering" style="display: block; padding: 0px; background-color: transparent; color: inherit; box-sizing: border-box; font-family: 'Source Code Pro', monospace;font-size:undefined; white-space: pre; border-top-left-radius: 0px; border-top-right-radius: 0px; border-bottom-right-radius: 0px; border-bottom-left-radius: 0px; word-wrap: normal; background-position: initial initial; background-repeat: initial initial;"> <span class="hljs-class" style="box-sizing: border-box;"><span class="hljs-keyword" style="color: rgb(0, 0, 136); box-sizing: border-box;">class</span> <span class="hljs-title" style="box-sizing: border-box; color: rgb(102, 0, 102);">HiddenLayer</span><span class="hljs-params" style="color: rgb(102, 0, 102); box-sizing: border-box;">(object)</span>:</span><span class="hljs-function" style="box-sizing: border-box;"><span class="hljs-keyword" style="color: rgb(0, 0, 136); box-sizing: border-box;">def</span> <span class="hljs-title" style="box-sizing: border-box;">__init__</span><span class="hljs-params" style="color: rgb(102, 0, 102); box-sizing: border-box;">(self, rng, input, n_in, n_out, W=None, b=None, activation=T.tanh)</span>:</span><span class="hljs-string" style="color: rgb(0, 136, 0); box-sizing: border-box;">'''初始化函数!HiddenLayer实例化时调用该函数。该层与输入层是全连接,激活函数为tanh。参数介绍:rng 类型为:numpy.random.RandomState。rng 功能为:rng是用来产生随机数的实例化对象。本类中用于对W进行随机数初始化。而非0值初始化。input 类型为:符号变量T.dmatrixinput 功能为:代表输入数据(在这里其实就是传入的图片数据x,其shape为[n_examples, n_in],n_examples是样本的数量) n_in 类型为:intn_in 功能为:每一个输入样本数据的长度。和LR中一样,比如一张图片是28*28=784,那么这里n_in=784,意思就是把图片数据转化为1维。n_out 类型为:intn_out 功能为:隐层单元的个数(隐层单元的个数决定了最终结果向量的长度)activation 类型为:theano.Op 或者 functionactivation 功能为:隐层的非线性激活函数'''</span>self.input = input<span class="hljs-comment" style="color: rgb(136, 0, 0); box-sizing: border-box;"># 根据博文中的介绍,W应该按照均匀分布来随机初始化,其样本数据范围为:</span><span class="hljs-comment" style="color: rgb(136, 0, 0); box-sizing: border-box;"># [sqrt(-6./(fin+fout)),sqrt(6./(fin+fout))]</span><span class="hljs-comment" style="color: rgb(136, 0, 0); box-sizing: border-box;"># 根据博文中的说明,fin很显然就是n_in了,因为n_in就是样本数据的长度,即输入层的单元个数。</span><span class="hljs-comment" style="color: rgb(136, 0, 0); box-sizing: border-box;"># 同样,fout就是n_out,因为n_out是隐层单元的个数。</span><span class="hljs-comment" style="color: rgb(136, 0, 0); box-sizing: border-box;"># rng.uniform()的意思就是产生一个大小为size的矩阵,</span><span class="hljs-comment" style="color: rgb(136, 0, 0); box-sizing: border-box;"># 矩阵的每个元素值最小是low,最大是high,且所有元素值是随机均匀采样。</span><span class="hljs-keyword" style="color: rgb(0, 0, 136); box-sizing: border-box;">if</span> W <span class="hljs-keyword" style="color: rgb(0, 0, 136); box-sizing: border-box;">is</span> <span class="hljs-keyword" style="color: rgb(0, 0, 136); box-sizing: border-box;">None</span>:W_values = numpy.asarray(rng.uniform(low=-numpy.sqrt(<span class="hljs-number" style="color: rgb(0, 102, 102); box-sizing: border-box;">6.</span> / (n_in + n_out)),high=numpy.sqrt(<span class="hljs-number" style="color: rgb(0, 102, 102); box-sizing: border-box;">6.</span> / (n_in + n_out)),size=(n_in, n_out)),dtype=theano.config.floatX)<span class="hljs-comment" style="color: rgb(136, 0, 0); box-sizing: border-box;"># 如果激活函数是sigmoid的话,每个元素的值是tanh的4倍。</span><span class="hljs-keyword" style="color: rgb(0, 0, 136); box-sizing: border-box;">if</span> activation == theano.tensor.nnet.sigmoid:W_values *= <span class="hljs-number" style="color: rgb(0, 102, 102); box-sizing: border-box;">4</span>W = theano.shared(value=W_values, name=<span class="hljs-string" style="color: rgb(0, 136, 0); box-sizing: border-box;">'W'</span>, borrow=<span class="hljs-keyword" style="color: rgb(0, 0, 136); box-sizing: border-box;">True</span>)<span class="hljs-comment" style="color: rgb(136, 0, 0); box-sizing: border-box;"># 偏置b初始化为0,因为梯度反向传播对b无效</span><span class="hljs-keyword" style="color: rgb(0, 0, 136); box-sizing: border-box;">if</span> b <span class="hljs-keyword" style="color: rgb(0, 0, 136); box-sizing: border-box;">is</span> <span class="hljs-keyword" style="color: rgb(0, 0, 136); box-sizing: border-box;">None</span>:b_values = numpy.zeros((n_out,), dtype=theano.config.floatX)b = theano.shared(value=b_values, name=<span class="hljs-string" style="color: rgb(0, 136, 0); box-sizing: border-box;">'b'</span>, borrow=<span class="hljs-keyword" style="color: rgb(0, 0, 136); box-sizing: border-box;">True</span>) self.W = Wself.b = b<span class="hljs-comment" style="color: rgb(136, 0, 0); box-sizing: border-box;"># 计算线性输出,即无激活函数的结果,就等于最基本的公式 f(x)=Wx+b</span><span class="hljs-comment" style="color: rgb(136, 0, 0); box-sizing: border-box;"># 如果我们传入了自己的激活函数,那么就把该线性输出送入我们自己的激活函数,</span><span class="hljs-comment" style="color: rgb(136, 0, 0); box-sizing: border-box;"># 此处激活函数为非线性函数tanh,因此产生的结果是非线性的。</span>lin_output = T.dot(input, self.W) + self.bself.output = (<span class="hljs-comment" style="color: rgb(136, 0, 0); box-sizing: border-box;"># 这个表达式其实很简单,就是其他高级语言里边的三目运算</span><span class="hljs-comment" style="color: rgb(136, 0, 0); box-sizing: border-box;"># condition?"True":"false" 如果条件(activation is None)成立,</span><span class="hljs-comment" style="color: rgb(136, 0, 0); box-sizing: border-box;"># 则self.output=lin_ouput</span><span class="hljs-comment" style="color: rgb(136, 0, 0); box-sizing: border-box;"># 否则,self.output=activation(lin_output)</span>lin_output <span class="hljs-keyword" style="color: rgb(0, 0, 136); box-sizing: border-box;">if</span> activation <span class="hljs-keyword" style="color: rgb(0, 0, 136); box-sizing: border-box;">is</span> <span class="hljs-keyword" style="color: rgb(0, 0, 136); box-sizing: border-box;">None</span><span class="hljs-keyword" style="color: rgb(0, 0, 136); box-sizing: border-box;">else</span> activation(lin_output))self.params = [self.W, self.b]</code><ul class="pre-numbering" style="box-sizing: border-box; position: absolute; width: 50px; background-color: rgb(238, 238, 238); top: 0px; left: 0px; margin: 0px; padding: 6px 0px 40px; border-right-width: 1px; border-right-style: solid; border-right-color: rgb(221, 221, 221); list-style: none; text-align: right;"><li style="box-sizing: border-box; padding: 0px 5px;">1</li><li style="box-sizing: border-box; padding: 0px 5px;">2</li><li style="box-sizing: border-box; padding: 0px 5px;">3</li><li style="box-sizing: border-box; padding: 0px 5px;">4</li><li style="box-sizing: border-box; padding: 0px 5px;">5</li><li style="box-sizing: border-box; padding: 0px 5px;">6</li><li style="box-sizing: border-box; padding: 0px 5px;">7</li><li style="box-sizing: border-box; padding: 0px 5px;">8</li><li style="box-sizing: border-box; padding: 0px 5px;">9</li><li style="box-sizing: border-box; padding: 0px 5px;">10</li><li style="box-sizing: border-box; padding: 0px 5px;">11</li><li style="box-sizing: border-box; padding: 0px 5px;">12</li><li style="box-sizing: border-box; padding: 0px 5px;">13</li><li style="box-sizing: border-box; padding: 0px 5px;">14</li><li style="box-sizing: border-box; padding: 0px 5px;">15</li><li style="box-sizing: border-box; padding: 0px 5px;">16</li><li style="box-sizing: border-box; padding: 0px 5px;">17</li><li style="box-sizing: border-box; padding: 0px 5px;">18</li><li style="box-sizing: border-box; padding: 0px 5px;">19</li><li style="box-sizing: border-box; padding: 0px 5px;">20</li><li style="box-sizing: border-box; padding: 0px 5px;">21</li><li style="box-sizing: border-box; padding: 0px 5px;">22</li><li style="box-sizing: border-box; padding: 0px 5px;">23</li><li style="box-sizing: border-box; padding: 0px 5px;">24</li><li style="box-sizing: border-box; padding: 0px 5px;">25</li><li style="box-sizing: border-box; padding: 0px 5px;">26</li><li style="box-sizing: border-box; padding: 0px 5px;">27</li><li style="box-sizing: border-box; padding: 0px 5px;">28</li><li style="box-sizing: border-box; padding: 0px 5px;">29</li><li style="box-sizing: border-box; padding: 0px 5px;">30</li><li style="box-sizing: border-box; padding: 0px 5px;">31</li><li style="box-sizing: border-box; padding: 0px 5px;">32</li><li style="box-sizing: border-box; padding: 0px 5px;">33</li><li style="box-sizing: border-box; padding: 0px 5px;">34</li><li style="box-sizing: border-box; padding: 0px 5px;">35</li><li style="box-sizing: border-box; padding: 0px 5px;">36</li><li style="box-sizing: border-box; padding: 0px 5px;">37</li><li style="box-sizing: border-box; padding: 0px 5px;">38</li><li style="box-sizing: border-box; padding: 0px 5px;">39</li><li style="box-sizing: border-box; padding: 0px 5px;">40</li><li style="box-sizing: border-box; padding: 0px 5px;">41</li><li style="box-sizing: border-box; padding: 0px 5px;">42</li><li style="box-sizing: border-box; padding: 0px 5px;">43</li><li style="box-sizing: border-box; padding: 0px 5px;">44</li><li style="box-sizing: border-box; padding: 0px 5px;">45</li><li style="box-sizing: border-box; padding: 0px 5px;">46</li><li style="box-sizing: border-box; padding: 0px 5px;">47</li><li style="box-sizing: border-box; padding: 0px 5px;">48</li><li style="box-sizing: border-box; padding: 0px 5px;">49</li><li style="box-sizing: border-box; padding: 0px 5px;">50</li><li style="box-sizing: border-box; padding: 0px 5px;">51</li><li style="box-sizing: border-box; padding: 0px 5px;">52</li><li style="box-sizing: border-box; padding: 0px 5px;">53</li><li style="box-sizing: border-box; padding: 0px 5px;">54</li><li style="box-sizing: border-box; padding: 0px 5px;">55</li><li style="box-sizing: border-box; padding: 0px 5px;">56</li><li style="box-sizing: border-box; padding: 0px 5px;">57</li><li style="box-sizing: border-box; padding: 0px 5px;">58</li><li style="box-sizing: border-box; padding: 0px 5px;">59</li><li style="box-sizing: border-box; padding: 0px 5px;">60</li><li style="box-sizing: border-box; padding: 0px 5px;">61</li><li style="box-sizing: border-box; padding: 0px 5px;">62</li><li style="box-sizing: border-box; padding: 0px 5px;">63</li><li style="box-sizing: border-box; padding: 0px 5px;">64</li><li style="box-sizing: border-box; padding: 0px 5px;">65</li></ul>
根据HiddenLayer类计算完结果后,我们相当于计算了公式h(x)=Φ(x)=S(W(1)x+b(1)),下面我们需要计算公式o(x)=G(W(2)h(x)+b(2)),然后根据前文的分析,第二个公式就是我们之前实现的LR。因此,我们只需要将隐层的结果作为LR的输入,即可实现MLP的功能。下面,我们来写一下MLP的代码:
<code class="hljs python has-numbering" style="display: block; padding: 0px; background-color: transparent; color: inherit; box-sizing: border-box; font-family: 'Source Code Pro', monospace;font-size:undefined; white-space: pre; border-top-left-radius: 0px; border-top-right-radius: 0px; border-bottom-right-radius: 0px; border-bottom-left-radius: 0px; word-wrap: normal; background-position: initial initial; background-repeat: initial initial;"><span class="hljs-class" style="box-sizing: border-box;"><span class="hljs-keyword" style="color: rgb(0, 0, 136); box-sizing: border-box;">class</span> <span class="hljs-title" style="box-sizing: border-box; color: rgb(102, 0, 102);">MLP</span><span class="hljs-params" style="color: rgb(102, 0, 102); box-sizing: border-box;">(object)</span>:</span><span class="hljs-string" style="color: rgb(0, 136, 0); box-sizing: border-box;">'''多层感知机是一个前馈人工神经网络模型。它包含一个或多个隐层单元以及非线性激活函数。中间层通常使用tanh或sigmoid作为激活函数,顶层(输出层)通常使用softmax作为分类器。'''</span><span class="hljs-function" style="box-sizing: border-box;"><span class="hljs-keyword" style="color: rgb(0, 0, 136); box-sizing: border-box;">def</span> <span class="hljs-title" style="box-sizing: border-box;">__init__</span><span class="hljs-params" style="color: rgb(102, 0, 102); box-sizing: border-box;">(self, rng, input, n_in, n_hidden, n_out)</span>:</span><span class="hljs-string" style="color: rgb(0, 136, 0); box-sizing: border-box;">'''rng, input在前边已经介绍过。n_in : int类型,输入数据的数目,此处对应的是输入的样本数据。 n_hidden : int类型,隐层单元数目n_out : int类型,输出层单元数目,此处对应的是输入样本的标签数据的数目。 '''</span><span class="hljs-comment" style="color: rgb(136, 0, 0); box-sizing: border-box;"># 首先定义一个隐层,用来连接输入层和隐层。</span>self.hiddenLayer = HiddenLayer(rng=rng,input=input,n_in=n_in,n_out=n_hidden,activation=T.tanh)<span class="hljs-comment" style="color: rgb(136, 0, 0); box-sizing: border-box;"># 然后定义一个LR层,用来连接隐层和输出层</span>self.logRegressionLayer = LR(input=self.hiddenLayer.output,n_in=n_hidden,n_out=n_out)<span class="hljs-comment" style="color: rgb(136, 0, 0); box-sizing: border-box;"># 规则化,常用的是L1和L2。是为了防止过拟合。</span><span class="hljs-comment" style="color: rgb(136, 0, 0); box-sizing: border-box;"># 其计算方式很简单。具体规则化的内容在文章下方详细说一下</span><span class="hljs-comment" style="color: rgb(136, 0, 0); box-sizing: border-box;"># L1项的计算公式是:将W的每个元素的绝对值累加求和。此处有2个W,因此两者相加。</span>self.L1 = (abs(self.hiddenLayer.W).sum()+ abs(self.logRegressionLayer.W).sum())<span class="hljs-comment" style="color: rgb(136, 0, 0); box-sizing: border-box;"># L2项的计算公式是:将W的每个元素的平方累加求和。此处有2个W,因此两者相加。</span>self.L2_sqr = ((self.hiddenLayer.W ** <span class="hljs-number" style="color: rgb(0, 102, 102); box-sizing: border-box;">2</span>).sum()+ (self.logRegressionLayer.W ** <span class="hljs-number" style="color: rgb(0, 102, 102); box-sizing: border-box;">2</span>).sum())<span class="hljs-comment" style="color: rgb(136, 0, 0); box-sizing: border-box;"># 和LR一样,计算负对数似然函数,计算误差。</span>self.negative_log_likelihood = (self.logRegressionLayer.negative_log_likelihood)self.errors = self.logRegressionLayer.errorsself.params = self.hiddenLayer.params + self.logRegressionLayer.paramsself.input = input</code><ul class="pre-numbering" style="box-sizing: border-box; position: absolute; width: 50px; background-color: rgb(238, 238, 238); top: 0px; left: 0px; margin: 0px; padding: 6px 0px 40px; border-right-width: 1px; border-right-style: solid; border-right-color: rgb(221, 221, 221); list-style: none; text-align: right;"><li style="box-sizing: border-box; padding: 0px 5px;">1</li><li style="box-sizing: border-box; padding: 0px 5px;">2</li><li style="box-sizing: border-box; padding: 0px 5px;">3</li><li style="box-sizing: border-box; padding: 0px 5px;">4</li><li style="box-sizing: border-box; padding: 0px 5px;">5</li><li style="box-sizing: border-box; padding: 0px 5px;">6</li><li style="box-sizing: border-box; padding: 0px 5px;">7</li><li style="box-sizing: border-box; padding: 0px 5px;">8</li><li style="box-sizing: border-box; padding: 0px 5px;">9</li><li style="box-sizing: border-box; padding: 0px 5px;">10</li><li style="box-sizing: border-box; padding: 0px 5px;">11</li><li style="box-sizing: border-box; padding: 0px 5px;">12</li><li style="box-sizing: border-box; padding: 0px 5px;">13</li><li style="box-sizing: border-box; padding: 0px 5px;">14</li><li style="box-sizing: border-box; padding: 0px 5px;">15</li><li style="box-sizing: border-box; padding: 0px 5px;">16</li><li style="box-sizing: border-box; padding: 0px 5px;">17</li><li style="box-sizing: border-box; padding: 0px 5px;">18</li><li style="box-sizing: border-box; padding: 0px 5px;">19</li><li style="box-sizing: border-box; padding: 0px 5px;">20</li><li style="box-sizing: border-box; padding: 0px 5px;">21</li><li style="box-sizing: border-box; padding: 0px 5px;">22</li><li style="box-sizing: border-box; padding: 0px 5px;">23</li><li style="box-sizing: border-box; padding: 0px 5px;">24</li><li style="box-sizing: border-box; padding: 0px 5px;">25</li><li style="box-sizing: border-box; padding: 0px 5px;">26</li><li style="box-sizing: border-box; padding: 0px 5px;">27</li><li style="box-sizing: border-box; padding: 0px 5px;">28</li><li style="box-sizing: border-box; padding: 0px 5px;">29</li><li style="box-sizing: border-box; padding: 0px 5px;">30</li><li style="box-sizing: border-box; padding: 0px 5px;">31</li><li style="box-sizing: border-box; padding: 0px 5px;">32</li><li style="box-sizing: border-box; padding: 0px 5px;">33</li><li style="box-sizing: border-box; padding: 0px 5px;">34</li><li style="box-sizing: border-box; padding: 0px 5px;">35</li><li style="box-sizing: border-box; padding: 0px 5px;">36</li><li style="box-sizing: border-box; padding: 0px 5px;">37</li><li style="box-sizing: border-box; padding: 0px 5px;">38</li><li style="box-sizing: border-box; padding: 0px 5px;">39</li><li style="box-sizing: border-box; padding: 0px 5px;">40</li><li style="box-sizing: border-box; padding: 0px 5px;">41</li><li style="box-sizing: border-box; padding: 0px 5px;">42</li><li style="box-sizing: border-box; padding: 0px 5px;">43</li><li style="box-sizing: border-box; padding: 0px 5px;">44</li><li style="box-sizing: border-box; padding: 0px 5px;">45</li><li style="box-sizing: border-box; padding: 0px 5px;">46</li><li style="box-sizing: border-box; padding: 0px 5px;">47</li><li style="box-sizing: border-box; padding: 0px 5px;">48</li><li style="box-sizing: border-box; padding: 0px 5px;">49</li><li style="box-sizing: border-box; padding: 0px 5px;">50</li><li style="box-sizing: border-box; padding: 0px 5px;">51</li></ul>
现在就来解释一下篇头中提到的代价函数是基本一样的原因。
首先来说一下规则化。当我们训练模型试图让它在面对新的输入样本时产生更好的结果(就是有更好的泛化能力),我们往往会采用梯度下降方法。而本实验中用到的MSGD方法却没有考虑到一个问题,那就是过拟合现象。一旦出现过拟合,那么在面对新的样本时很难有好的结果。为了控制过拟合,一个比较有效的方法就是规格化。就是给每个参数θ(对应于W中的每一个元素)增加一个惩罚项,如果某个参数的系数非常大那么θ就会接近于0了。那么什么是L1和L2规格化呢?下面看一个公式,假设我们的代价函数是:
那么规则化后的代价函数就是:
就是加入了一个 λR(θ) 。在我们的实验中,具体的公式如下:
其中:
不难发现,当把公式 (R−4) 带入到公式 (R−3) 后, 1p 次方与 p 次方约掉,就剩下了:
(R−5) 就是 θ 的 Lp 项; λ 是一个很重的规则化参数。我们通常令 Lp 中的 p 取值为 1 或者 2 ,这就是命名为L1和L2的原因。
原则上,当代价函数中增添了规则化项之后会使得网络拟合函数时更加平滑。所以,理论上,最小化NLL与R(θ)的和等价于在拟合训练数据和找到一般性的解(分类超平面)之间找到最佳的权衡。根据Occam’s razor规则,最小化加入规则化项的公式会使得我们更容易找到拟合训练数据的解(分类超平面)。
实际上一个模型有一个简单的超平面解并不意味着它的泛化能力很好。实验证明,含有这种规格化项的神经网络的泛化能力更好,尤其是在比较小的数据集上。
下面来看一下带有规则化项的代价函数代码如何写:
<code class="language-python hljs has-numbering" style="display: block; padding: 0px; background-color: transparent; color: inherit; box-sizing: border-box; font-family: 'Source Code Pro', monospace;font-size:undefined; white-space: pre; border-top-left-radius: 0px; border-top-right-radius: 0px; border-bottom-right-radius: 0px; border-bottom-left-radius: 0px; word-wrap: normal; background-position: initial initial; background-repeat: initial initial;"><span class="hljs-comment" style="color: rgb(136, 0, 0); box-sizing: border-box;"># 代价函数,这是一个符号变量,cost并不是一个具体的数值。当传入具体的数据后,</span> <span class="hljs-comment" style="color: rgb(136, 0, 0); box-sizing: border-box;"># 其才会有具体的数据产生。在原代价函数的基础上加入规则参数*规则项。</span> cost = (classifier.negative_log_likelihood(y) + L1_reg * classifier.L1 + L2_reg * classifier.L2_sqr )</code><ul class="pre-numbering" style="box-sizing: border-box; position: absolute; width: 50px; background-color: rgb(238, 238, 238); top: 0px; left: 0px; margin: 0px; padding: 6px 0px 40px; border-right-width: 1px; border-right-style: solid; border-right-color: rgb(221, 221, 221); list-style: none; text-align: right;"><li style="box-sizing: border-box; padding: 0px 5px;">1</li><li style="box-sizing: border-box; padding: 0px 5px;">2</li><li style="box-sizing: border-box; padding: 0px 5px;">3</li><li style="box-sizing: border-box; padding: 0px 5px;">4</li><li style="box-sizing: border-box; padding: 0px 5px;">5</li><li style="box-sizing: border-box; padding: 0px 5px;">6</li><li style="box-sizing: border-box; padding: 0px 5px;">7</li></ul>
最后就是参数求梯度以及参数更新,基本和LR的区别不大。训练模型函数、测试模型函数、验证模型函数和LR相同。至此,代码实现基本告一段落,可以下载全部代码运行测试。其他的代码注释不多,因为应该比较简单。只有一个mlp.py文件。下载来,直接python mlp.py即可运行。如果有不懂的地方可以留言,也可以翻看上一篇LR的实现。本文所介绍的mlp去对mnist分类官方给出的一个结果是:
<code class="hljs livecodeserver has-numbering" style="display: block; padding: 0px; background-color: transparent; color: inherit; box-sizing: border-box; font-family: 'Source Code Pro', monospace;font-size:undefined; white-space: pre; border-top-left-radius: 0px; border-top-right-radius: 0px; border-bottom-right-radius: 0px; border-bottom-left-radius: 0px; word-wrap: normal; background-position: initial initial; background-repeat: initial initial;">Optimization complete. Best validation score <span class="hljs-operator" style="box-sizing: border-box;">of</span> <span class="hljs-number" style="color: rgb(0, 102, 102); box-sizing: border-box;">1.690000</span> % obtained <span class="hljs-keyword" style="color: rgb(0, 0, 136); box-sizing: border-box;">at</span> iteration <span class="hljs-number" style="color: rgb(0, 102, 102); box-sizing: border-box;">2070000</span>, <span class="hljs-operator" style="box-sizing: border-box;">with</span> test performance <span class="hljs-number" style="color: rgb(0, 102, 102); box-sizing: border-box;">1.650000</span> % The code <span class="hljs-keyword" style="color: rgb(0, 0, 136); box-sizing: border-box;">for</span> <span class="hljs-built_in" style="color: rgb(102, 0, 102); box-sizing: border-box;">file</span> mlp.py ran <span class="hljs-keyword" style="color: rgb(0, 0, 136); box-sizing: border-box;">for</span> <span class="hljs-number" style="color: rgb(0, 102, 102); box-sizing: border-box;">97.34</span>m</code><ul class="pre-numbering" style="box-sizing: border-box; position: absolute; width: 50px; background-color: rgb(238, 238, 238); top: 0px; left: 0px; margin: 0px; padding: 6px 0px 40px; border-right-width: 1px; border-right-style: solid; border-right-color: rgb(221, 221, 221); list-style: none; text-align: right;"><li style="box-sizing: border-box; padding: 0px 5px;">1</li><li style="box-sizing: border-box; padding: 0px 5px;">2</li></ul>
我也正在跑代码,因为还是比较耗时的。这个网址里边记录了目前为止所做过的实验以及结果。有兴趣的可以看一下。最好的误差能达到0.23%了,天呢,接近100%的识别率了。
参考目录:
1. 官方教程
2. Stanford机器学习—第三讲. 逻辑回归和过拟合问题的解决 logistic Regression & Regularization
3. 深度学习(DL)与卷积神经网络(CNN)学习笔记随笔-03-基于Python的LeNet5之LR
深度学习(DL)与卷积神经网络(CNN)学习笔记随笔-04-基于Python的LeNet之MLP相关推荐
- 深度学习(DL)与卷积神经网络(CNN)学习笔记随笔-03-基于Python的LeNet之LR
原地址可以查看更多信息 本文主要参考于:Classifying MNIST digits using Logistic Regression python源代码(GitHub下载 CSDN免费下载) ...
- 深度学习(DL)与卷积神经网络(CNN)学习笔记随笔-01-CNN基础知识点
转载自:http://blog.csdn.net/niuwei22007/article/details/47399913 <CNN基础知识点>From:Convolutional Neu ...
- 深度学习(DL)与卷积神经网络(CNN)学习随笔-05-基于Python的LeNet之CNN
本文原链接可以查看更多文章 博文01介绍了CNN的基本结构.博文02.03.04依次介绍了卷积操作.LR模型的建立及实现,MLP模型及实现.这些都是作为实现LeNet的铺垫.因为LeNet的实现 ...
- 深度学习(DL)与卷积神经网络(CNN)学习笔记随笔-02-基于Python的卷积运算
原文地址可以查看更多信息:http://blog.csdn.net/niuwei22007/article/details/48025939 源代码分析:(注意,如果直接保存以下代码, ...
- 【深度学习系列】卷积神经网络CNN原理详解(一)——基本原理(1)
上篇文章我们给出了用paddlepaddle来做手写数字识别的示例,并对网络结构进行到了调整,提高了识别的精度.有的同学表示不是很理解原理,为什么传统的机器学习算法,简单的神经网络(如多层感知机)都可 ...
- [人工智能-深度学习-33]:卷积神经网络CNN - 常见分类网络- LeNet网络结构分析与详解
作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客 本文网址:https://blog.csdn.net/HiWangWenBing/article/detai ...
- [人工智能-深度学习-24]:卷积神经网络CNN - CS231n解读 - 卷积神经网络基本层级
作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客 本文网址:[人工智能-深度学习-23]:卷积神经网络CNN - CS231n解读 - 卷积神经网络基本层级_ ...
- 卷积神经网络(三):卷积神经网络CNN的简单实现(部分Python源码)
转载自: 卷积神经网络(三):卷积神经网络CNN的简单实现(部分Python源码) - xuanyuansen的专栏 - 博客频道 - CSDN.NET http://blog.csdn.net/xu ...
- python卷积神经网络cnn的训练算法_【深度学习系列】卷积神经网络CNN原理详解(一)——基本原理...
上篇文章我们给出了用paddlepaddle来做手写数字识别的示例,并对网络结构进行到了调整,提高了识别的精度.有的同学表示不是很理解原理,为什么传统的机器学习算法,简单的神经网络(如多层感知机)都可 ...
最新文章
- c语言 结构数组读取,有关文件读写到结构体数组问题;
- 一个简单文本处理问题的多种解法
- WebRTC 系列之视频辅流
- ppt 的局部分大功能软件介绍.ZoomIt
- 不经保存,直接读取上传文件
- android闹钟唤醒不准的原因_俄罗斯睡眠专家:闹钟铃声选错了,可能扰乱你的内分泌...
- python怎么下载安装mac_Mac下内置python2.7如何安装模块?
- 「镁客早报」蓝色起源完成无人火箭试飞;知名对冲基金做空高通...
- python内置函数map_python内置函数 map/reduce
- python学习路线--从入门到入土
- qt creator纯C或C++项目在windows下的命令行中文乱码解决
- 数据库建模——用PowerDesigner对现有的数据库进行逆向工程
- DotNetBar2使用实例(引用方法)
- mysql如何清空数据库表内容
- Fastdfs读取文件内容
- 苹果专用视频播放器Elmedia Video Player pro
- 变色龙(Floyd算法)
- 机房动环监控解决方案!
- Excel表格设置下拉选项并应用到整列及清除下拉项设置
- 8255A红绿灯c语言程序,汇编语言的交通灯程序