对自编码(1)进行改进,(1)中实现的网络是用2个编码层,2个解码层,现在对它进行添加编码层和解码层分别为4层

原始数据784--》256--》64--》16--》2

  1. #encoding=utf-8
  2. import tensorflow as tf
  3. from tensorflow.examples.tutorials.mnist import input_data
  4. mnist = input_data.read_data_sets('/data',one_hot=True)
  5. learning_rate = 0.01
  6. n_hidden_1 = 256
  7. n_hidden_2 = 64
  8. n_hidden_3 = 16
  9. n_hidden_4 = 2
  10. n_input = 784 #输入图片大小28*28
  11. x = tf.placeholder('float',[None,n_input])
  12. y = x
  13. weights = {
  14. 'encoder_h1':tf.Variable(tf.random_normal([n_input,n_hidden_1])),
  15. 'encoder_h2':tf.Variable(tf.random_normal([n_hidden_1,n_hidden_2])),
  16. 'encoder_h3':tf.Variable(tf.random_normal([n_hidden_2,n_hidden_3])),
  17. 'encoder_h4':tf.Variable(tf.random_normal([n_hidden_3,n_hidden_4])),
  18. 'decoder_h1':tf.Variable(tf.random_normal([n_hidden_4,n_hidden_3])),
  19. 'decoder_h2':tf.Variable(tf.random_normal([n_hidden_3,n_hidden_2])),
  20. 'decoder_h3':tf.Variable(tf.random_normal([n_hidden_2,n_hidden_1])),
  21. 'decoder_h4':tf.Variable(tf.random_normal([n_hidden_1,n_input])),
  22. }
  23. biases = {
  24. 'encoder_b1':tf.Variable(tf.zeros([n_hidden_1])),
  25. 'encoder_b2':tf.Variable(tf.zeros([n_hidden_2])),
  26. 'encoder_b3':tf.Variable(tf.zeros([n_hidden_3])),
  27. 'encoder_b4':tf.Variable(tf.zeros([n_hidden_4])),
  28. 'decoder_b1':tf.Variable(tf.zeros([n_hidden_3])),
  29. 'decoder_b2':tf.Variable(tf.zeros([n_hidden_2])),
  30. 'decoder_b3':tf.Variable(tf.zeros([n_hidden_1])),
  31. 'decoder_b4':tf.Variable(tf.zeros([n_input])),
  32. }
  33. #定义网络模型
  34. def encoder(x):
  35. layer_1 = tf.nn.sigmoid(tf.add(tf.matmul(x,weights['encoder_h1']),biases['encoder_b1']))
  36. layer_2 = tf.nn.sigmoid(tf.add(tf.matmul(layer_1,weights['encoder_h2']),biases['encoder_b2']))
  37. layer_3 = tf.nn.sigmoid(tf.add(tf.matmul(layer_2,weights['encoder_h3']),biases['encoder_b3']))
  38. layer_4 = tf.nn.sigmoid(tf.add(tf.matmul(layer_3,weights['encoder_h4']),biases['encoder_b4']))
  39. return layer_4
  40. def decoder(x):
  41. layer_1 = tf.nn.sigmoid(tf.add(tf.matmul(x, weights['decoder_h1']), biases['decoder_b1']))
  42. layer_2 = tf.nn.sigmoid(tf.add(tf.matmul(layer_1, weights['decoder_h2']), biases['decoder_b2']))
  43. layer_3 = tf.nn.sigmoid(tf.add(tf.matmul(layer_2, weights['decoder_h3']), biases['decoder_b3']))
  44. layer_4 = tf.nn.sigmoid(tf.add(tf.matmul(layer_3, weights['decoder_h4']), biases['decoder_b4']))
  45. return layer_4
  46. y_pred = decoder(encoder(x))
  47. print('y_pred',y_pred)
  48. cost = tf.reduce_mean(tf.pow(y-y_pred,2))
  49. optimizer = tf.train.AdamOptimizer(learning_rate).minimize(cost)
  50. training_epochs = 20
  51. batch_size = 256
  52. display_step = 1
  53. with tf.Session() as sess:
  54. tf.global_variables_initializer().run()
  55. total_batch = int(mnist.train.num_examples/batch_size)
  56. #循环开始训练
  57. for epoch in range(training_epochs):
  58. #遍历全部数据集
  59. for i in range(total_batch):
  60. batch_xs,batch_ys = mnist.train.next_batch(batch_size)
  61. _,c = sess.run([optimizer,cost],feed_dict={x:batch_xs})
  62. if epoch%display_step == 0:
  63. print('Epoch:','%04d'%(epoch+1),'cost=','{:.9f}'.format(c))
  64. print('finished')

Tensorflow实现MNIST数据自编码(2)相关推荐

  1. Tensorflow实现MNIST数据自编码(3)

    前面自编码(1)和自编码(2)是针对高维数据维数进行降低维数角度改进模型,但是还需要让这些特征具有抗干扰能力,输入的特征数据受到干扰时,生成特征依然不会怎么变化,使自动编码器具有更好的泛化能力 #en ...

  2. Tensorflow实现MNIST数据自编码(1)

    自编码网络能够自学习样本特征的网络,属于无监督学习模型的网络,可以从无标注的数据中学习特征,它可以给出比原始数据更好的特征描述,具有较强的特征学习能力. 主要的网络结构就是高维特征样本--->编 ...

  3. tensorflow学习笔记——使用TensorFlow操作MNIST数据(1)

    续集请点击我:tensorflow学习笔记--使用TensorFlow操作MNIST数据(2) 本节开始学习使用tensorflow教程,当然从最简单的MNIST开始.这怎么说呢,就好比编程入门有He ...

  4. 使用Tensorflow操作MNIST数据

    MNIST是一个非常有名的手写体数字识别数据集,在很多资料中,这个数据集都会被用作深度学习的入门样例.而TensorFlow的封装让使用MNIST数据集变得更加方便.MNIST数据集是NIST数据集的 ...

  5. TensorFlow学习笔记(十四)TensorFLow 用mnist数据做classification

    之前的例子,给的都是tf来做regression,也就是回归问题,现在用tf来做一个classification的处理,也就是分类问题. 这里用的数据集是mnist数据. 代码: "&quo ...

  6. Tensorflow实战之下载MNIST数据,自动分成train, validation和test三个数据集

    TensorFlow 实战Google深度学习框架 第2版 ,郑泽宇之P96.下载MNIST数据,自动分成train, validation和test三个数据集,源码如下: #!/usr/bin/en ...

  7. 【TensorFlow】MNIST手写数字识别

    MNIST   MNIST是一个非常简单的机器视觉数据集.如图,它由几万字28像素×28像素的手写数字组成,这些图片只包含灰度值信息.我们的任务是对这些手写数字的图片进行分类,转成0~9一共10类. ...

  8. 机器学习入门案例简单理解——Tensorflow之MNIST解析

    深度学习简单介绍 首先要简单区别几个概念:人工智能,机器学习,深度学习,神经网络.这几个词应该是出现的最为频繁的,但是他们有什么区别呢? 人工智能:人类通过直觉可以解决的问题,如:自然语言理解,图像识 ...

  9. TF之DCGAN:基于TF利用DCGAN测试MNIST数据集并进行生成过程全记录

    TF之DCGAN:基于TF利用DCGAN测试MNIST数据集并进行生成 目录 测试结果 测试过程全记录 测试结果 train_00_0099 train_00_0799 train_00_0899 t ...

最新文章

  1. Resource punkt not found.nltk.download()下载失败
  2. 表格排序tablesort小案列
  3. python实训项目-求一份Python的实验报告+源代码,项目内容不限
  4. 基于SharePoint 2013的论坛解决方案[开源]
  5. Data Lake Analytics: 使用DataWorks来调度DLA任务
  6. Flowable学习笔记(一、入门)
  7. java jaxb xml
  8. UVA 10047 - The Monocycle BFS
  9. Ubuntu18.04 LTS Melodic ROS 教程:使用URDF创建一个虚拟机器人模型
  10. spark学习-Spark Streaming初次理解
  11. java map 元素个数_Java 小模块之--统计字符串中元素个数
  12. JSP — 第一章课本练习【身份证、抽奖、简单地登录流程】
  13. 通过帮网友解答问题训练同学们使用awk,sed案例
  14. CmsEasy可视化编辑商城系统源码
  15. Mac 安装仿宋GB2312 For Word/WPS
  16. leaftlet 显示个性化图标、旋转图标
  17. 目标检测一阶段和二阶段对比图
  18. PCB 布局布线小技巧
  19. 数据库中主键、主码、主属性、关键字、候选关键字、码的区别
  20. 读书笔记--项亮《推荐系统实践》第五章

热门文章

  1. Visual Studio 在根目录下运行文件系统站点 [ Visual Studio | 文件系统 | WebDev.WebServer.EXE ]...
  2. 如何防止无线网络被破解
  3. ***后门与密码破解
  4. ADOQuery的LockType
  5. 广播等风暴的解决办法
  6. 机器学习实战之SVM
  7. CSP认证201712-1 最小差值[C++题解]:遍历
  8. win10系统安装Redis3.2.100
  9. csrf攻击防御 php,Yii2.0防御csrf攻击方法
  10. excel柱状图堆叠图显示总和_Excel 的堆积柱形图上,怎样才能显示堆积图的总和?...