FROM: http://blog.csdn.net/u012162613/article/details/43225445

DeepLearning tutorial(4)CNN卷积神经网络原理简介+代码详解


@author:wepon

@blog:http://blog.csdn.net/u012162613/article/details/43225445

本文介绍多层感知机算法,特别是详细解读其代码实现,基于python theano,代码来自:Convolutional Neural Networks (LeNet)。经详细注释的代码和原始代码:放在我的github地址上,可下载。

一、CNN卷积神经网络原理简介

要讲明白卷积神经网络,估计得长篇大论,网上有很多博文已经写得很好了,所以本文就不重复了,如果你了解CNN,那可以往下看,本文主要是详细地解读CNN的实现代码。如果你没学习过CNN,在此推荐周晓艺师兄的博文:Deep Learning(深度学习)学习笔记整理系列之(七),以及UFLDL上的卷积特征提取、池化

CNN的最大特点就是稀疏连接(局部感受)和权值共享,如下面两图所示,左为稀疏连接,右为权值共享。稀疏连接和权值共享可以减少所要训练的参数,减少计算复杂度。

       

至于CNN的结构,以经典的LeNet5来说明:

这个图真是无处不在,一谈CNN,必说LeNet5,这图来自于这篇论文:Gradient-Based Learning Applied to Document Recognition,论文很长,第7页那里开始讲LeNet5这个结构,建议看看那部分。

我这里简单说一下,LeNet5这张图从左到右,先是input,这是输入层,即输入的图片。input-layer到C1这部分就是一个卷积层(convolution运算),C1到S2是一个子采样层(pooling运算),关于卷积和子采样的具体过程可以参考下图:

然后,S2到C3又是卷积,C3到S4又是子采样,可以发现,卷积和子采样都是成对出现的,卷积后面一般跟着子采样。S4到C5之间是全连接的,这就相当于一个MLP的隐含层了(如果你不清楚MLP,参考《DeepLearning tutorial(3)MLP多层感知机原理简介+代码详解》)。C5到F6同样是全连接,也是相当于一个MLP的隐含层。最后从F6到输出output,其实就是一个分类器,这一层就叫分类层。

ok,CNN的基本结构大概就是这样,由输入、卷积层、子采样层、全连接层、分类层、输出这些基本“构件”组成,一般根据具体的应用或者问题,去确定要多少卷积层和子采样层、采用什么分类器。当确定好了结构以后,如何求解层与层之间的连接参数?一般采用向前传播(FP)+向后传播(BP)的方法来训练。具体可参考上面给出的链接。

二、CNN卷积神经网络代码详细解读(基于python+theano)

代码来自于深度学习教程:Convolutional Neural Networks (LeNet),这个代码实现的是一个简化了的LeNet5,具体如下:
  • 没有实现location-specific gain and bias parameters
  • 用的是maxpooling,而不是average_pooling
  • 分类器用的是softmax,LeNet5用的是rbf
  • LeNet5第二层并不是全连接的,本程序实现的是全连接

另外,代码里将卷积层和子采用层合在一起,定义为“LeNetConvPoolLayer“(卷积采样层),这好理解,因为它们总是成对出现。但是有个地方需要注意,代码中将卷积后的输出直接作为子采样层的输入,而没有加偏置b再通过sigmoid函数进行映射,即没有了下图中fx后面的bx以及sigmoid映射,也即直接由fx得到Cx。

最后,代码中第一个卷积层用的卷积核有20个,第二个卷积层用50个,而不是上面那张LeNet5图中所示的6个和16个。

了解了这些,下面看代码:

(1)导入必要的模块

[python] view plaincopy
  1. import cPickle
  2. import gzip
  3. import os
  4. import sys
  5. import time
  6. import numpy
  7. import theano
  8. import theano.tensor as T
  9. from theano.tensor.signal import downsample
  10. from theano.tensor.nnet import conv

(2)定义CNN的基本"构件"

CNN的基本构件包括卷积采样层、隐含层、分类器,如下

  • 定义LeNetConvPoolLayer(卷积+采样层)

见代码注释:

[python] view plaincopy
  1. """
  2. 卷积+下采样合成一个层LeNetConvPoolLayer
  3. rng:随机数生成器,用于初始化W
  4. input:4维的向量,theano.tensor.dtensor4
  5. filter_shape:(number of filters, num input feature maps,filter height, filter width)
  6. image_shape:(batch size, num input feature maps,image height, image width)
  7. poolsize: (#rows, #cols)
  8. """
  9. class LeNetConvPoolLayer(object):
  10. def __init__(self, rng, input, filter_shape, image_shape, poolsize=(2, 2)):
  11. #assert condition,condition为True,则继续往下执行,condition为False,中断程序
  12. #image_shape[1]和filter_shape[1]都是num input feature maps,它们必须是一样的。
  13. assert image_shape[1] == filter_shape[1]
  14. self.input = input
  15. #每个隐层神经元(即像素)与上一层的连接数为num input feature maps * filter height * filter width。
  16. #可以用numpy.prod(filter_shape[1:])来求得
  17. fan_in = numpy.prod(filter_shape[1:])
  18. #lower layer上每个神经元获得的梯度来自于:"num output feature maps * filter height * filter width" /pooling size
  19. fan_out = (filter_shape[0] * numpy.prod(filter_shape[2:]) /
  20. numpy.prod(poolsize))
  21. #以上求得fan_in、fan_out ,将它们代入公式,以此来随机初始化W,W就是线性卷积核
  22. W_bound = numpy.sqrt(6. / (fan_in + fan_out))
  23. self.W = theano.shared(
  24. numpy.asarray(
  25. rng.uniform(low=-W_bound, high=W_bound, size=filter_shape),
  26. dtype=theano.config.floatX
  27. ),
  28. borrow=True
  29. )
  30. # the bias is a 1D tensor -- one bias per output feature map
  31. #偏置b是一维向量,每个输出图的特征图都对应一个偏置,
  32. #而输出的特征图的个数由filter个数决定,因此用filter_shape[0]即number of filters来初始化
  33. b_values = numpy.zeros((filter_shape[0],), dtype=theano.config.floatX)
  34. self.b = theano.shared(value=b_values, borrow=True)
  35. #将输入图像与filter卷积,conv.conv2d函数
  36. #卷积完没有加b再通过sigmoid,这里是一处简化。
  37. conv_out = conv.conv2d(
  38. input=input,
  39. filters=self.W,
  40. filter_shape=filter_shape,
  41. image_shape=image_shape
  42. )
  43. #maxpooling,最大子采样过程
  44. pooled_out = downsample.max_pool_2d(
  45. input=conv_out,
  46. ds=poolsize,
  47. ignore_border=True
  48. )
  49. #加偏置,再通过tanh映射,得到卷积+子采样层的最终输出
  50. #因为b是一维向量,这里用维度转换函数dimshuffle将其reshape。比如b是(10,),
  51. #则b.dimshuffle('x', 0, 'x', 'x'))将其reshape为(1,10,1,1)
  52. self.output = T.tanh(pooled_out + self.b.dimshuffle('x', 0, 'x', 'x'))
  53. #卷积+采样层的参数
  54. self.params = [self.W, self.b]
  • 定义隐含层HiddenLayer
这个跟上一篇文章《 DeepLearning tutorial(3)MLP多层感知机原理简介+代码详解》中的HiddenLayer是一致的,直接拿过来:
[python] view plaincopy
  1. """
  2. 注释:
  3. 这是定义隐藏层的类,首先明确:隐藏层的输入即input,输出即隐藏层的神经元个数。输入层与隐藏层是全连接的。
  4. 假设输入是n_in维的向量(也可以说时n_in个神经元),隐藏层有n_out个神经元,则因为是全连接,
  5. 一共有n_in*n_out个权重,故W大小时(n_in,n_out),n_in行n_out列,每一列对应隐藏层的每一个神经元的连接权重。
  6. b是偏置,隐藏层有n_out个神经元,故b时n_out维向量。
  7. rng即随机数生成器,numpy.random.RandomState,用于初始化W。
  8. input训练模型所用到的所有输入,并不是MLP的输入层,MLP的输入层的神经元个数时n_in,而这里的参数input大小是(n_example,n_in),每一行一个样本,即每一行作为MLP的输入层。
  9. activation:激活函数,这里定义为函数tanh
  10. """
  11. class HiddenLayer(object):
  12. def __init__(self, rng, input, n_in, n_out, W=None, b=None,
  13. activation=T.tanh):
  14. self.input = input   #类HiddenLayer的input即所传递进来的input
  15. """
  16. 注释:
  17. 代码要兼容GPU,则必须使用 dtype=theano.config.floatX,并且定义为theano.shared
  18. 另外,W的初始化有个规则:如果使用tanh函数,则在-sqrt(6./(n_in+n_hidden))到sqrt(6./(n_in+n_hidden))之间均匀
  19. 抽取数值来初始化W,若时sigmoid函数,则以上再乘4倍。
  20. """
  21. #如果W未初始化,则根据上述方法初始化。
  22. #加入这个判断的原因是:有时候我们可以用训练好的参数来初始化W,见我的上一篇文章。
  23. if W is None:
  24. W_values = numpy.asarray(
  25. rng.uniform(
  26. low=-numpy.sqrt(6. / (n_in + n_out)),
  27. high=numpy.sqrt(6. / (n_in + n_out)),
  28. size=(n_in, n_out)
  29. ),
  30. dtype=theano.config.floatX
  31. )
  32. if activation == theano.tensor.nnet.sigmoid:
  33. W_values *= 4
  34. W = theano.shared(value=W_values, name='W', borrow=True)
  35. if b is None:
  36. b_values = numpy.zeros((n_out,), dtype=theano.config.floatX)
  37. b = theano.shared(value=b_values, name='b', borrow=True)
  38. #用上面定义的W、b来初始化类HiddenLayer的W、b
  39. self.W = W
  40. self.b = b
  41. #隐含层的输出
  42. lin_output = T.dot(input, self.W) + self.b
  43. self.output = (
  44. lin_output if activation is None
  45. else activation(lin_output)
  46. )
  47. #隐含层的参数
  48. self.params = [self.W, self.b]
  • 定义分类器 (Softmax回归)
采用Softmax,这跟《DeepLearning tutorial(1)Softmax回归原理简介+代码详解》中的LogisticRegression是一样的,直接拿过来:
[python] view plaincopy
  1. """
  2. 定义分类层LogisticRegression,也即Softmax回归
  3. 在deeplearning tutorial中,直接将LogisticRegression视为Softmax,
  4. 而我们所认识的二类别的逻辑回归就是当n_out=2时的LogisticRegression
  5. """
  6. #参数说明:
  7. #input,大小就是(n_example,n_in),其中n_example是一个batch的大小,
  8. #因为我们训练时用的是Minibatch SGD,因此input这样定义
  9. #n_in,即上一层(隐含层)的输出
  10. #n_out,输出的类别数
  11. class LogisticRegression(object):
  12. def __init__(self, input, n_in, n_out):
  13. #W大小是n_in行n_out列,b为n_out维向量。即:每个输出对应W的一列以及b的一个元素。
  14. self.W = theano.shared(
  15. value=numpy.zeros(
  16. (n_in, n_out),
  17. dtype=theano.config.floatX
  18. ),
  19. name='W',
  20. borrow=True
  21. )
  22. self.b = theano.shared(
  23. value=numpy.zeros(
  24. (n_out,),
  25. dtype=theano.config.floatX
  26. ),
  27. name='b',
  28. borrow=True
  29. )
  30. #input是(n_example,n_in),W是(n_in,n_out),点乘得到(n_example,n_out),加上偏置b,
  31. #再作为T.nnet.softmax的输入,得到p_y_given_x
  32. #故p_y_given_x每一行代表每一个样本被估计为各类别的概率
  33. #PS:b是n_out维向量,与(n_example,n_out)矩阵相加,内部其实是先复制n_example个b,
  34. #然后(n_example,n_out)矩阵的每一行都加b
  35. self.p_y_given_x = T.nnet.softmax(T.dot(input, self.W) + self.b)
  36. #argmax返回最大值下标,因为本例数据集是MNIST,下标刚好就是类别。axis=1表示按行操作。
  37. self.y_pred = T.argmax(self.p_y_given_x, axis=1)
  38. #params,LogisticRegression的参数
  39. self.params = [self.W, self.b]
到这里,CNN的基本”构件“都有了,下面要用这些”构件“组装成LeNet5(当然,是简化的,上面已经说了),具体来说,就是组装成:LeNet5=input+LeNetConvPoolLayer_1+LeNetConvPoolLayer_2+HiddenLayer+LogisticRegression+output。

然后将其应用于MNIST数据集,用BP算法去解这个模型,得到最优的参数。

(3)加载MNIST数据集(mnist.pkl.gz)

[python] view plaincopy
  1. """
  2. 加载MNIST数据集load_data()
  3. """
  4. def load_data(dataset):
  5. # dataset是数据集的路径,程序首先检测该路径下有没有MNIST数据集,没有的话就下载MNIST数据集
  6. #这一部分就不解释了,与softmax回归算法无关。
  7. data_dir, data_file = os.path.split(dataset)
  8. if data_dir == "" and not os.path.isfile(dataset):
  9. # Check if dataset is in the data directory.
  10. new_path = os.path.join(
  11. os.path.split(__file__)[0],
  12. "..",
  13. "data",
  14. dataset
  15. )
  16. if os.path.isfile(new_path) or data_file == 'mnist.pkl.gz':
  17. dataset = new_path
  18. if (not os.path.isfile(dataset)) and data_file == 'mnist.pkl.gz':
  19. import urllib
  20. origin = (
  21. 'http://www.iro.umontreal.ca/~lisa/deep/data/mnist/mnist.pkl.gz'
  22. )
  23. print 'Downloading data from %s' % origin
  24. urllib.urlretrieve(origin, dataset)
  25. print '... loading data'
  26. #以上是检测并下载数据集mnist.pkl.gz,不是本文重点。下面才是load_data的开始
  27. #从"mnist.pkl.gz"里加载train_set, valid_set, test_set,它们都是包括label的
  28. #主要用到python里的gzip.open()函数,以及 cPickle.load()。
  29. #‘rb’表示以二进制可读的方式打开文件
  30. f = gzip.open(dataset, 'rb')
  31. train_set, valid_set, test_set = cPickle.load(f)
  32. f.close()
  33. #将数据设置成shared variables,主要时为了GPU加速,只有shared variables才能存到GPU memory中
  34. #GPU里数据类型只能是float。而data_y是类别,所以最后又转换为int返回
  35. def shared_dataset(data_xy, borrow=True):
  36. data_x, data_y = data_xy
  37. shared_x = theano.shared(numpy.asarray(data_x,
  38. dtype=theano.config.floatX),
  39. borrow=borrow)
  40. shared_y = theano.shared(numpy.asarray(data_y,
  41. dtype=theano.config.floatX),
  42. borrow=borrow)
  43. return shared_x, T.cast(shared_y, 'int32')
  44. test_set_x, test_set_y = shared_dataset(test_set)
  45. valid_set_x, valid_set_y = shared_dataset(valid_set)
  46. train_set_x, train_set_y = shared_dataset(train_set)
  47. rval = [(train_set_x, train_set_y), (valid_set_x, valid_set_y),
  48. (test_set_x, test_set_y)]
  49. return rval

(4)实现LeNet5并测试

[python] view plaincopy
  1. """
  2. 实现LeNet5
  3. LeNet5有两个卷积层,第一个卷积层有20个卷积核,第二个卷积层有50个卷积核
  4. """
  5. def evaluate_lenet5(learning_rate=0.1, n_epochs=200,
  6. dataset='mnist.pkl.gz',
  7. nkerns=[20, 50], batch_size=500):
  8. """
  9. learning_rate:学习速率,随机梯度前的系数。
  10. n_epochs训练步数,每一步都会遍历所有batch,即所有样本
  11. batch_size,这里设置为500,即每遍历完500个样本,才计算梯度并更新参数
  12. nkerns=[20, 50],每一个LeNetConvPoolLayer卷积核的个数,第一个LeNetConvPoolLayer有
  13. 20个卷积核,第二个有50个
  14. """
  15. rng = numpy.random.RandomState(23455)
  16. #加载数据
  17. datasets = load_data(dataset)
  18. train_set_x, train_set_y = datasets[0]
  19. valid_set_x, valid_set_y = datasets[1]
  20. test_set_x, test_set_y = datasets[2]
  21. # 计算batch的个数
  22. n_train_batches = train_set_x.get_value(borrow=True).shape[0]
  23. n_valid_batches = valid_set_x.get_value(borrow=True).shape[0]
  24. n_test_batches = test_set_x.get_value(borrow=True).shape[0]
  25. n_train_batches /= batch_size
  26. n_valid_batches /= batch_size
  27. n_test_batches /= batch_size
  28. #定义几个变量,index表示batch下标,x表示输入的训练数据,y对应其标签
  29. index = T.lscalar()
  30. x = T.matrix('x')
  31. y = T.ivector('y')
  32. ######################
  33. # BUILD ACTUAL MODEL #
  34. ######################
  35. print '... building the model'
  36. #我们加载进来的batch大小的数据是(batch_size, 28 * 28),但是LeNetConvPoolLayer的输入是四维的,所以要reshape
  37. layer0_input = x.reshape((batch_size, 1, 28, 28))
  38. # layer0即第一个LeNetConvPoolLayer层
  39. #输入的单张图片(28,28),经过conv得到(28-5+1 , 28-5+1) = (24, 24),
  40. #经过maxpooling得到(24/2, 24/2) = (12, 12)
  41. #因为每个batch有batch_size张图,第一个LeNetConvPoolLayer层有nkerns[0]个卷积核,
  42. #故layer0输出为(batch_size, nkerns[0], 12, 12)
  43. layer0 = LeNetConvPoolLayer(
  44. rng,
  45. input=layer0_input,
  46. image_shape=(batch_size, 1, 28, 28),
  47. filter_shape=(nkerns[0], 1, 5, 5),
  48. poolsize=(2, 2)
  49. )
  50. #layer1即第二个LeNetConvPoolLayer层
  51. #输入是layer0的输出,每张特征图为(12,12),经过conv得到(12-5+1, 12-5+1) = (8, 8),
  52. #经过maxpooling得到(8/2, 8/2) = (4, 4)
  53. #因为每个batch有batch_size张图(特征图),第二个LeNetConvPoolLayer层有nkerns[1]个卷积核
  54. #,故layer1输出为(batch_size, nkerns[1], 4, 4)
  55. layer1 = LeNetConvPoolLayer(
  56. rng,
  57. input=layer0.output,
  58. image_shape=(batch_size, nkerns[0], 12, 12),#输入nkerns[0]张特征图,即layer0输出nkerns[0]张特征图
  59. filter_shape=(nkerns[1], nkerns[0], 5, 5),
  60. poolsize=(2, 2)
  61. )
  62. #前面定义好了两个LeNetConvPoolLayer(layer0和layer1),layer1后面接layer2,这是一个全连接层,相当于MLP里面的隐含层
  63. #故可以用MLP中定义的HiddenLayer来初始化layer2,layer2的输入是二维的(batch_size, num_pixels) ,
  64. #故要将上层中同一张图经不同卷积核卷积出来的特征图合并为一维向量,
  65. #也就是将layer1的输出(batch_size, nkerns[1], 4, 4)flatten为(batch_size, nkerns[1]*4*4)=(500,800),作为layer2的输入。
  66. #(500,800)表示有500个样本,每一行代表一个样本。layer2的输出大小是(batch_size,n_out)=(500,500)
  67. layer2_input = layer1.output.flatten(2)
  68. layer2 = HiddenLayer(
  69. rng,
  70. input=layer2_input,
  71. n_in=nkerns[1] * 4 * 4,
  72. n_out=500,
  73. activation=T.tanh
  74. )
  75. #最后一层layer3是分类层,用的是逻辑回归中定义的LogisticRegression,
  76. #layer3的输入是layer2的输出(500,500),layer3的输出就是(batch_size,n_out)=(500,10)
  77. layer3 = LogisticRegression(input=layer2.output, n_in=500, n_out=10)
  78. #代价函数NLL
  79. cost = layer3.negative_log_likelihood(y)
  80. # test_model计算测试误差,x、y根据给定的index具体化,然后调用layer3,
  81. #layer3又会逐层地调用layer2、layer1、layer0,故test_model其实就是整个CNN结构,
  82. #test_model的输入是x、y,输出是layer3.errors(y)的输出,即误差。
  83. test_model = theano.function(
  84. [index],
  85. layer3.errors(y),
  86. givens={
  87. x: test_set_x[index * batch_size: (index + 1) * batch_size],
  88. y: test_set_y[index * batch_size: (index + 1) * batch_size]
  89. }
  90. )
  91. #validate_model,验证模型,分析同上。
  92. validate_model = theano.function(
  93. [index],
  94. layer3.errors(y),
  95. givens={
  96. x: valid_set_x[index * batch_size: (index + 1) * batch_size],
  97. y: valid_set_y[index * batch_size: (index + 1) * batch_size]
  98. }
  99. )
  100. #下面是train_model,涉及到优化算法即SGD,需要计算梯度、更新参数
  101. #参数集
  102. params = layer3.params + layer2.params + layer1.params + layer0.params
  103. #对各个参数的梯度
  104. grads = T.grad(cost, params)
  105. #因为参数太多,在updates规则里面一个一个具体地写出来是很麻烦的,所以下面用了一个for..in..,自动生成规则对(param_i, param_i - learning_rate * grad_i)
  106. updates = [
  107. (param_i, param_i - learning_rate * grad_i)
  108. for param_i, grad_i in zip(params, grads)
  109. ]
  110. #train_model,代码分析同test_model。train_model里比test_model、validation_model多出updates规则
  111. train_model = theano.function(
  112. [index],
  113. cost,
  114. updates=updates,
  115. givens={
  116. x: train_set_x[index * batch_size: (index + 1) * batch_size],
  117. y: train_set_y[index * batch_size: (index + 1) * batch_size]
  118. }
  119. )
  120. ###############
  121. #   开始训练  #
  122. ###############
  123. print '... training'
  124. patience = 10000
  125. patience_increase = 2
  126. improvement_threshold = 0.995
  127. validation_frequency = min(n_train_batches, patience / 2)
  128. #这样设置validation_frequency可以保证每一次epoch都会在验证集上测试。
  129. best_validation_loss = numpy.inf   #最好的验证集上的loss,最好即最小
  130. best_iter = 0                      #最好的迭代次数,以batch为单位。比如best_iter=10000,说明在训练完第10000个batch时,达到best_validation_loss
  131. test_score = 0.
  132. start_time = time.clock()
  133. epoch = 0
  134. done_looping = False
  135. #下面就是训练过程了,while循环控制的时步数epoch,一个epoch会遍历所有的batch,即所有的图片。
  136. #for循环是遍历一个个batch,一次一个batch地训练。for循环体里会用train_model(minibatch_index)去训练模型,
  137. #train_model里面的updatas会更新各个参数。
  138. #for循环里面会累加训练过的batch数iter,当iter是validation_frequency倍数时则会在验证集上测试,
  139. #如果验证集的损失this_validation_loss小于之前最佳的损失best_validation_loss,
  140. #则更新best_validation_loss和best_iter,同时在testset上测试。
  141. #如果验证集的损失this_validation_loss小于best_validation_loss*improvement_threshold时则更新patience。
  142. #当达到最大步数n_epoch时,或者patience<iter时,结束训练
  143. while (epoch < n_epochs) and (not done_looping):
  144. epoch = epoch + 1
  145. for minibatch_index in xrange(n_train_batches):
  146. iter = (epoch - 1) * n_train_batches + minibatch_index
  147. if iter % 100 == 0:
  148. print 'training @ iter = ', iter
  149. cost_ij = train_model(minibatch_index)
  150. #cost_ij 没什么用,后面都没有用到,只是为了调用train_model,而train_model有返回值
  151. if (iter + 1) % validation_frequency == 0:
  152. # compute zero-one loss on validation set
  153. validation_losses = [validate_model(i) for i
  154. in xrange(n_valid_batches)]
  155. this_validation_loss = numpy.mean(validation_losses)
  156. print('epoch %i, minibatch %i/%i, validation error %f %%' %
  157. (epoch, minibatch_index + 1, n_train_batches,
  158. this_validation_loss * 100.))
  159. if this_validation_loss < best_validation_loss:
  160. if this_validation_loss < best_validation_loss *  \
  161. improvement_threshold:
  162. patience = max(patience, iter * patience_increase)
  163. best_validation_loss = this_validation_loss
  164. best_iter = iter
  165. test_losses = [
  166. test_model(i)
  167. for i in xrange(n_test_batches)
  168. ]
  169. test_score = numpy.mean(test_losses)
  170. print(('     epoch %i, minibatch %i/%i, test error of '
  171. 'best model %f %%') %
  172. (epoch, minibatch_index + 1, n_train_batches,
  173. test_score * 100.))
  174. if patience <= iter:
  175. done_looping = True
  176. break
  177. end_time = time.clock()
  178. print('Optimization complete.')
  179. print('Best validation score of %f %% obtained at iteration %i, '
  180. 'with test performance %f %%' %
  181. (best_validation_loss * 100., best_iter + 1, test_score * 100.))
  182. print >> sys.stderr, ('The code for file ' +
  183. os.path.split(__file__)[1] +
  184. ' ran for %.2fm' % ((end_time - start_time) / 60.))

文章完,经详细注释的代码和原始代码:放在我的github地址上,可下载。

如果有任何错误,或者有说不清楚的地方,欢迎评论留言。

DeepLearning tutorial(4)CNN卷积神经网络原理简介+代码详解相关推荐

  1. DeepLearning tutorial(3)MLP多层感知机原理简介+代码详解

    FROM:http://blog.csdn.net/u012162613/article/details/43221829 @author:wepon @blog:http://blog.csdn.n ...

  2. DeepLearning tutorial(1)Softmax回归原理简介+代码详解

    FROM: http://blog.csdn.net/u012162613/article/details/43157801 DeepLearning tutorial(1)Softmax回归原理简介 ...

  3. Pytorch实现手写体识别(基于CNN卷积神经网络)实操详解(附完整代码free)

    手写体作为深度学习的"Hello world",几乎所有的课程都会讲到这个,今天带着大家一些看看吧. 如果对你有所帮助,点个赞给个小关注,以后一起交流学习. 前言 首先和大家讲讲我 ...

  4. 【深度学习】5:CNN卷积神经网络原理

    前言:先坦白的说,深度神经网络的学习在一开始对我造成的困扰还是很大的,我也是通过不断地看相关的视频资料.文献讲解尝试去理解记忆.毕竟这些内容大多都是不可查的,我们看到的都只是输入输出的东西,里面的内部 ...

  5. CNN卷积神经网络原理与公式讲解

    CNN卷积神经网络原理讲解+图片识别应用(两层) https://blog.csdn.net/kun1280437633/article/details/80817129 写给初学者的深度学习教程之 ...

  6. 从卷积神经网络(CNN)到图卷积神经网络(GCN)详解

    目录 一.CNN和GCN的关系 二."图"的预备知识 三.图卷积网络(GCN) 四.针对于高光谱图像分类的网络优化 五.频域的图卷积神经网络 最近看到一篇引用量非常高的文章,是用图 ...

  7. batchnorm原理及代码详解

    转载自:http://www.ishenping.com/ArtInfo/156473.html batchnorm原理及代码详解 原博文 原微信推文 见到原作者的这篇微信小文整理得很详尽.故在csd ...

  8. Pytorch|YOWO原理及代码详解(二)

    Pytorch|YOWO原理及代码详解(二) 本博客上接,Pytorch|YOWO原理及代码详解(一),阅前可看. 1.正式训练 if opt.evaluate:logging('evaluating ...

  9. 人脸识别SeetaFace2原理与代码详解

    人脸识别SeetaFace2原理与代码详解 前言 一.人脸识别步骤 二.SeetaFace2基本介绍 三.seetaFace2人脸注册.识别代码详解 3.1 人脸注册 3.1.1 人脸检测 3.1.2 ...

最新文章

  1. 从平台到中台 | Elaticsearch 在蚂蚁金服的实践经验
  2. CSSOM之getComputedStyle,currentStyle,getPropertyValue,getAttribute
  3. Spring的使用——基础环境搭建以及IOC概念理解(持续更新)
  4. C#LeetCode刷题之#860-柠檬水找零(Lemonade Change)
  5. 字符串string 、byte[]、MemoryStream、Base64String的相互转换
  6. JavaScript机器学习之KNN算法
  7. 网络集成方案_用户需要的综合性解决方案:网络安全架构集成的价值凸显
  8. Hadoop源码分析:Hadoop编程思想
  9. [what is machine learning?]
  10. cass二次开发vba和lisp_CAD二次开发LISP视频_小懒人CAD工具箱_CAD插件_CASS插件_LISP代码...
  11. Windows:无须再忍,Microsoft Store下载慢/加速/更快,不摘抄(2022新)
  12. 【高项】第4章 项目整体管理与变更管理【知识点精华笔记】
  13. python中文名字-Python 批量生成中文姓名(百家姓)
  14. 【测试Demo】JavaAPI操作阿里云对象存储(OSS)
  15. 易经占卜的演变与人工取名
  16. 襄阳2021年高考成绩查询,2021湖北襄阳高考成绩公布时间
  17. Common Language Extension(CLE) 介绍
  18. 安装 android 模拟器
  19. Android代码安装apk程序
  20. PPT——————酷炫文字、人物海报

热门文章

  1. cpp 条件判断 大于等于_第31p,if条件语句,请满足我的要求
  2. SQLServer数据库自增长标识列的更新修改操作
  3. leetcode算法题--二叉树的深度
  4. python测试用例管理工具_三款开源测试管理工具推荐
  5. 软件详细设计说明书_互联网知识大全:软件开发中和各种开发软件文档的常见的英文缩写,还不快快收藏!...
  6. Configuring the VNC server/viewer in Linux.
  7. 无限容量数据库架构设计
  8. Spring STS Call Hierarchy 查找不到被调用的信息
  9. Python自动化开发学习15-css补充内容
  10. Linux数据写操作改进