用卷积神经网络来给,cifar10数据集进行分类,这是一个经典的数据集,它包含60000张32x32的彩色图片,其中训练集50000张测试集10000张.照片的内容包含十个类别:airplane,automobile,bird,cat,deer,dog,frog,horse,ship和truck.各有6000张


在这个CNN中用到了新的正则化方法,分别是L2权重loss,和LRN(局部响应标准化),LRN主要用在了卷积层,L2用在全连接层的权重.

#首先下载tensorflow models里面提供了获取数据的方法
git  clone https://github.com/tensorflow/models.git
下载完成后,进入models/tutotials/image/cifar10路径下找到cifar10.py cifar10_input.py放到模型同一路径下即可
导入用到的库
import tensorflow as tf
import numpy as np
import cifar10,cifar10_input
import time
import matplotlib.pyplot as plt
import numpy as np
#cifar10.maybe_download_and_extract()      # 下载cifar10数据集
# 默认下载路径:'/tmp/cifar10_data/cifar-10-batches-bin'
max_steps = 8000
batch_size = 512    # 小批量数据大小
fh1_nodes = 128     # 全连接隐藏层1节点数
fh2_nodes = 64      # 隐藏层2
display = 100
data_dir = 'cifar10data/cifar-10-batches-bin'    # 数据所在路径
# 权重初始化+L2损失(正则)
# l2正则是为了防止模型过拟合,将权重作为损失函数的一部分,减小权防止过拟合
# stddev是标准差, w1 来控制l2正则的程度
# tf.nn.l2_loss()计算权重损失,然后乘以系数w1
# tf.add_to_collection()会创建一个集合(列表),存放每层权重的loss,最后在求和添加到损失函数中def l2_weight_init(shape, stddev, w1):weight = tf.Variable(tf.truncated_normal(shape, stddev=stddev))if w1 is not None:weight_loss = tf.multiply(tf.nn.l2_loss(weight), w1, name='weight_loss')tf.add_to_collection('losses', weight_loss)return weight# 用于对卷积层权重初始化,卷积层没有使用l2正则
def weight_init(shape, stddev):weight = tf.Variable(tf.truncated_normal(shape, stddev=stddev))return weight
#初始化偏置,卷积,池化,局部响应正则
def biases_init(shape):return tf.Variable(tf.random_normal(shape))
def conv2d(image, weight):return tf.nn.conv2d(image, weight, strides=[1,1,1,1],padding='SAME')
def max_pool(tensor):return tf.nn.max_pool(tensor, ksize=[1,3,3,1], strides=[1,2,2,1], padding='SAME')
LRN局部响应标准化,在局部对神经元创建竞争环境,使反应较大的值变得相对更大
反应较小的神经元会被抑制,以此来增强模型的泛化能力


公式中的a就是原始图中的像素点,b为lrn后的.tf.nn.lrn()中的参数分别对应:4对应n, bias :对应k, alpha 对应α , beta 对应 β, N 为像素点的个数.

def LRnorm(tensor):return tf.nn.lrn(tensor, 4, bias=1.0, alpha=0.001/9.0, beta = 0.75)
# distorted_inputs函数生成训练数据,返回封装好的tensor对象
# 在生成训练数据的同时,对训练数据进行了增强处理,对图像进行随机的反转,切割,亮度调整等等(增加噪声)
# 增强处理,给每个图片增加了多个副本,可以提高数据的利用率,防止对某一图片的特征学习过拟合
# 随机切割为24x24的大小train_images, train_labels = cifar10_input.distorted_inputs(batch_size= batch_size, data_dir= data_dir)
# 测试数据是原图中间的24x24部分
# cifar10_input.inputs()返回测试数据,测试数据的label值,不是one-hot的形式,是我一个一维
test_images, test_labels = cifar10_input.inputs(batch_size= batch_size, data_dir= data_dir,eval_data= True)
# 创建输入数据的占位节点
images = tf.placeholder(tf.float32, [batch_size, 24, 24, 3])
labels = tf.placeholder(tf.float32, [batch_size])
# conv1 pool1 LRN1
weight1 = weight_init([5, 5, 3, 32], 0.05)
biases1 = biases_init([32])
conv1 = tf.nn.relu(conv2d(images, weight1) + biases1) #shape:[batchsize,24,24,32]
pool1 = max_pool(conv1)                               #shape:[batchsize,12,12,32]
lrnorm1 = LRnorm(pool1)                               #shape:[batchsize,12,12,32]
# conv2 LRN2 pool2
weight2 = weight_init([5, 5, 32, 32], 0.05)
biases2 = biases_init([32])
conv2 = tf.nn.relu((conv2d(lrnorm1, weight2) + biases2)) #shape:[batchsize,12,12,32]
lrnorm2 = LRnorm(conv2)                                  #shape:[batchsize,12,12,32]
pool2 = max_pool(lrnorm2)                                #shape:[batchsize,6,6,32]

全连接

# flatten,池化后的特征转换为一维
reshape = tf.reshape(pool2, [batch_size, -1])          # batchsize x 1152
n_input = reshape.get_shape()[1].value# 全连接隐藏层1
weight3 = l2_weight_init([n_input, fh1_nodes], 0.05, w1=0.001)
biases3 = biases_init([fh1_nodes])
fullc1 = tf.nn.relu(tf.matmul(reshape, weight3) + biases3)
# 全连接隐藏层2
weight4 = l2_weight_init([fh1_nodes, fh2_nodes], 0.05, w1=0.003)
biases4 = biases_init([fh2_nodes])
fullc2 = tf.nn.relu(tf.matmul(fullc1, weight4) + biases4)
# output layer
weight5 = weight_init([fh2_nodes, 10], 1/96.0)
biases5 = biases_init([10])
logits = tf.add(tf.matmul(fullc2, weight5) , biases5)    # 未激活输出
y_out = tf.nn.softmax(logits)

损失函数

def loss(logits, labels):labels = tf.cast(labels, tf.int64)cross_entropy = tf.nn.sparse_softmax_cross_entropy_with_logits(logits=logits, labels = labels,name ='cross_entropy_per_example')# 交叉熵损失cross_entropy_mean = tf.reduce_mean(cross_entropy, name='cross_entropy')# 权重损失tf.add_to_collection('losses', cross_entropy_mean)return tf.add_n(tf.get_collection('losses'), name='total_loss')
# 定义损失 = cross_entropy + l2_weight_loss
loss = loss(logits, labels)
# 优化Op
train_op = tf.train.AdamOptimizer(learning_rate=0.0001).minimize(loss)

计算分类准确率

# Accuracy
# tf.to_int64()
# 测试数据没有进行one-hot编码
def accuracy(test_labels, test_y_out):test_labels = tf.to_int64(test_labels)prediction_result = tf.equal(test_labels,tf.argmax(y_out,1))accu = tf.reduce_mean(tf.cast(prediction_result, tf.float32))return accu
init = tf.global_variables_initializer()
sess = tf.Session()
sess.run(init)
# 图片增强处理,时使用了16个线程加速,启动16个独立线程
tf.train.start_queue_runners(sess=sess)
[<Thread(Thread-4, started daemon 140381744264960)>,<Thread(Thread-5, started daemon 140381735872256)>,...............................<Thread(Thread-33, started daemon 140380334946048)>,<Thread(Thread-34, started daemon 140380326553344)>,<Thread(Thread-35, started daemon 140380318160640)>,<Thread(Thread-36, started daemon 140380309767936)>,<Thread(Thread-37, started daemon 140380301375232)>]

开始


Cross_loss = []
for i in range(max_steps):start_time = time.time()batch_images, batch_labels = sess.run([train_images, train_labels])_, cross_entropy = sess.run([train_op, loss],feed_dict={images:batch_images, labels:batch_labels})Cross_loss.append(cross_entropy)every_epoch_time = time.time() - start_timeif i % display == 0:examples_per_sec = batch_size/ every_epoch_timeevery_batch_time = float(every_epoch_time)format_str = 'Epoch : %d, loss :%.5f, %d examples/sec, %.3f sec/batch'print format_str%(i+100,cross_entropy,examples_per_sec,every_batch_time)
Epoch : 100, loss :3.20010, 396 examples/sec, 1.291 sec/batch
Epoch : 200, loss :2.40052, 425 examples/sec, 1.204 sec/batch
Epoch : 300, loss :2.23943, 421 examples/sec, 1.216 sec/batch
Epoch : 400, loss :2.05130, 398 examples/sec, 1.284 sec/batch
Epoch : 500, loss :1.98586, 405 examples/sec, 1.261 sec/batch
Epoch : 600, loss :1.90049, 415 examples/sec, 1.233 sec/batch
Epoch : 700, loss :1.83232, 409 examples/sec, 1.250 sec/batch......................
Epoch : 7600, loss :1.24275, 415 examples/sec, 1.231 sec/batch
Epoch : 7700, loss :1.22947, 338 examples/sec, 1.514 sec/batch
Epoch : 7800, loss :1.23878, 414 examples/sec, 1.235 sec/batch
Epoch : 7900, loss :1.24912, 246 examples/sec, 2.078 sec/batch
Epoch : 8000, loss :1.29120, 391 examples/sec, 1.308 sec/batch

训练损失

fig,ax = plt.subplots(figsize=(13,6))
ax.plot(Cross_loss)
plt.grid()
plt.title('Train loss')
plt.show()

主要在cpu上训练,比较费时,如果在GPU上训练,可以考虑增加隐藏层神经元的数量,大概3000-4000轮训练,loss就会下降到1.0左右

测试准确率

在每个batchsize大小的数据集上计算准确率,计算平均准确率

for i in range(10):test_accu = []batch_test_images, batch_test_labels = sess.run([test_images, test_labels])batch_y_out = sess.run(y_out,feed_dict={images:batch_test_images})test_accuracy = accuracy(batch_test_labels, batch_y_out)accu = sess.run(test_accuracy,feed_dict={images:batch_test_images})test_accu.append(accu)print accu
print 'mean accuracy',np.mean(test_accu)
0.634766
0.679688
0.662109
0.636719
0.660156
0.644531
0.605469
0.658203
0.667969
0.658203
mean accuracy 0.658203

训练过程可视化

# 随便选择一个测试图片(像素经过标准化处理后的)
# ,24 x 24 x 3 imshow(h,w,channel)
input_image = batch_test_images[17]
fig1,ax1 = plt.subplots(figsize=(2,2))
ax1.imshow(input_image)
plt.show()

# 卷积1
test_image = np.reshape(input_image,(1,24,24,3))
c1 = tf.nn.relu(conv2d(test_image, weight1) + biases1)
c_1 = sess.run(c1)                                      # c_1 shape:1, 24, 24, 32
fig2, ax2 = plt.subplots(nrows=1,ncols=32,figsize=(32,1))
for i in range(32):ax2[i].imshow(np.reshape(c_1,(32,1,24,24))[i][0])
plt.show()

# 池化1
p1 = max_pool(c_1)
p1_shape = p1.get_shape()          # 1,12,12,32
p_1 = sess.run(p1)
fig3, ax3 = plt.subplots(nrows=1,ncols=32,figsize=(32,1))
for i in range(32):                  # shape: 32, 1,12,12   ax3[i].imshow(np.reshape(p_1,(p1_shape[-1],p1_shape[0],p1_shape[1],p1_shape[2]))[i][0])
plt.show()

# 局部响应正则化1
lrn1 = LRnorm(p_1)
lrn1_shape = lrn1.get_shape()
lrn_1 = sess.run(lrn1)          # shape: 1,12,12,32
fig4, ax4 = plt.subplots(nrows=1,ncols=32,figsize=(32,1))
for i in range(32):             # shpae: 32,1,12,12ax4[i].imshow(np.reshape(lrn_1,(lrn1_shape[-1],lrn1_shape[0],lrn1_shape[1],lrn1_shape[2]))[i][0])
plt.show()

局部响应正则的效果不是特别明显
# 卷积2,经过卷积后,c2 shape:1,12,12,32(可以计算出来,所以就不通过get_shape()来获得了)
c2 = tf.nn.relu(conv2d(lrn_1,weight2) + biases2)
c_2 = sess.run(c2)
fig5, ax5 = plt.subplots(nrows=1,ncols=32,figsize=(32,1))
for i in range(32):ax5[i].imshow(np.reshape(c_2,(32,1,12,12))[i][0])
plt.show()

# 局部响应正则化2
lrn2 = LRnorm(c_2)     # shape: 1,12,12,32
lrn_2 = sess.run(lrn2)
fig6, ax6 = plt.subplots(nrows=1,ncols=32,figsize=(32,1))
for i in range(32):ax6[i].imshow(np.reshape(lrn_2,(32,1,12,12))[i][0])
plt.show()

# 池化2
p2 = max_pool(lrn_2)    # shape: 1,6,6,32
p_2 = sess.run(p2)
fig7, ax7 = plt.subplots(nrows=1,ncols=32,figsize=(32,1))
for i in range(32):ax7[i].imshow(np.reshape(p_2,(32,1,6,6))[i][0])
plt.show()

TensorFlow进阶:CNN对CIFAR10图像分类相关推荐

  1. Tensorflow之CNN实现CIFAR-10图像的分类python

    这个还是18年做的,当时被老师逼着三天速成,也是无奈的很呀,哭唧唧.但是现在想想还是老师逼迫的时候效率高哈哈哈哈哈,感谢努力push我们的老师~ CNN原理 卷积神经网络(Convolutional ...

  2. 关于CIFAR-10图像分类总结

    关于CIFAR-10图像分类问题,网络上有很多资源,这里记录一些在我的学习过程中的资料,主要是关于深度卷积神经网络处理图像分类的,包括VGGNet,GoogLeNet以及ResNet,也记录了一些杂七 ...

  3. 【TensorFlow实战笔记】卷积神经网络CNN实战-cifar10数据集(tensorboard可视化)

    IDE:pycharm Python: Python3.6 OS: win10 tf : CPU版本 代码可在github中下载,欢迎star,谢谢 CNN-CIFAR-10 一.CIFAR10数据集 ...

  4. 【Pytorch进阶一】基于LeNet的CIFAR10图像分类

    [Pytorch进阶一]基于LeNet的CIFAR10图像分类 一.LeNet网络介绍 二.CIFAR10数据集介绍 三.程序架构介绍 3.1 LeNet模型(model.py) 3.2 训练(tra ...

  5. 【深度学习】Pytorch实现CIFAR10图像分类任务测试集准确率达95%

    文章目录 前言 CIFAR10简介 Backbone选择 训练+测试 训练环境及超参设置 完整代码 部分测试结果 完整工程文件 Reference 前言 分享一下本人去年入门深度学习时,在CIFAR1 ...

  6. keras实战项目:CIFAR-10 图像分类

    转自:https://yq.aliyun.com/articles/606966 我们可以简单的将深度神经网络的模块,分成以下的三个部分,即深度神经网络上游的基于生成器的 输入模块,深度神经网络本身, ...

  7. cnn识别cifar10、cifar100(pytorch)

    下面的代码是cnn识别cifar10,如果是cifar100,将数据集的改成cifar100,然后模型的输出神经元10改为100即可. import torch,torchvision import ...

  8. [Python人工智能] 八.卷积神经网络CNN原理详解及TensorFlow编写CNN

    从本专栏开始,作者正式开始研究Python深度学习.神经网络及人工智能相关知识.前一篇文章介绍了什么是过拟合,并采用droput解决神经网络中过拟合的问题,以TensorFlow和sklearn的lo ...

  9. TensorFlow使用CNN实现中文文本分类

    TensorFlow使用CNN实现中文文本分类 读研期间使用过TensorFlow实现过简单的CNN情感分析(分类),当然这是比较low的二分类情况,后来进行多分类情况.但之前的学习基本上都是在英文词 ...

  10. [深度学习]-基于tensorflow的CNN和RNN-LSTM文本情感分析对比

    基于tensorflow的CNN和LSTM文本情感分析对比 1. 背景介绍 2. 数据集介绍 2.0 wordsList.npy 2.1 wordVectors.npy 2.2 idsMatrix.n ...

最新文章

  1. 一文读懂深度学习模型近年来重要进展(附梳理图)
  2. 老树发新芽 靠PS之类的软件,上市30年的Adobe股价创新高
  3. eclipse中的debug按钮组突然找不到了,找回方法
  4. AtCoder AGC030C Coloring Torus (构造)
  5. 『AA』AutoAnchor自动猫
  6. 17-8-26-WebApp总结
  7. 抽屉效果_越来越多人家装了餐边柜,为什么不多加一排抽屉?很多家庭没想到...
  8. python工资一般多少-Python开发的工资一般多少
  9. python idle连接失败_不能通过IDLE从Explorer运行Python [2013] - IDLE的子进程没有连接...
  10. GDB中打印pthread_internal_t的方法
  11. 谷歌浏览器如何截取长屏幕(全屏截图)
  12. java字符数组比大小排序_Java字符串数组进行大小排序
  13. 解决HD3000在OS X 10.10.2上横线和花屏问题
  14. 【uni-app系列】uni-ui扩展组件和uViewUI的安装使用
  15. php 回车符替换,php怎么替换回车符
  16. lpx寒假作业案例3
  17. 如何用python制作3d游戏_【教程】12个步骤让你快速学会制作3D游戏
  18. android显示通知图标大全,Android推送通知:图标未显示在通知中,而是显示白色方块...
  19. 软件工程知识点复习第二章
  20. 质量控制新七工具:亲和图、过程决策程序图、关联图、树形图、优先矩阵、活动网络图和矩阵图

热门文章

  1. 关于继承中调用成员变量和局部变量以及如何区分子类和父类中的变量,白话文详解,适合刚刚接触编程的新手
  2. Java基础,不需要复杂语句,使用for循环实现求出1~100之间的奇数和以及偶数和,超级简单
  3. linux中epoll函数,Linux Epoll 函数详解.doc
  4. vue aplayer 进度条无法拖动_用Vue做个Window玩
  5. 怎么查电脑系统版本_台式机电脑系统雨林木风、深度技术、番茄花园、罗卜家园,哪个最稳定最好用?...
  6. 人体识别_你知道人脸识别,但你知道人体识别吗?ReID技术了解一下!
  7. python分片赋值_关于 python 分片赋值
  8. 页面加载完就执行的设置?
  9. kaldi运行thchs30例子
  10. MS CRM 2011汇总更新5发布