本文面对三种常常遇到的情况,总结三种读取数据的方式,分别用于处理单张图片、大量图片,和TFRecorder读取方式。并且还补充了功能相近的tf函数。

1、处理单张图片

我们训练完模型之后,常常要用图片测试,有的时候,我们并不需要对很多图像做测试,可能就是几张甚至一张。这种情况下没有必要用队列机制。

import tensorflow as tf

import matplotlib.pyplot as plt

def read_image(file_name):

img = tf.read_file(filename=file_name) # 默认读取格式为uint8

print("img 的类型是",type(img));

img = tf.image.decode_jpeg(img,channels=0) # channels 为1得到的是灰度图,为0则按照图片格式来读

return img

def main( ):

with tf.device("/cpu:0"):

# img_path是文件所在地址包括文件名称,地址用相对地址或者绝对地址都行

img_path='./1.jpg'

img=read_image(img_path)

with tf.Session() as sess:

image_numpy=sess.run(img)

print(image_numpy)

print(image_numpy.dtype)

print(image_numpy.shape)

plt.imshow(image_numpy)

plt.show()

if __name__=="__main__":

main()

"""

输出结果为:

img 的类型是

[[[196 219 209]

[196 219 209]

[196 219 209]

...

[[ 71 106  42]

[ 59  89  39]

[ 34  63  19]

...

[ 21  52  46]

[ 15  45  43]

[ 22  50  53]]]

uint8

(675, 1200, 3)

"""

和tf.read_file用法相似的函数还有tf.gfile.FastGFile  tf.gfile.GFile,只是要指定读取方式是'r' 还是'rb' 。

2、需要读取大量图像用于训练

这种情况就需要使用Tensorflow队列机制。首先是获得每张图片的路径,把他们都放进一个list里面,然后用string_input_producer创建队列,再用tf.WholeFileReader读取。具体请看下例:

def get_image_batch(data_file,batch_size):

data_names=[os.path.join(data_file,k) for k in os.listdir(data_file)]

#这个num_epochs函数在整个Graph是local Variable,所以在sess.run全局变量的时候也要加上局部变量。

filenames_queue=tf.train.string_input_producer(data_names,num_epochs=50,shuffle=True,capacity=512)

reader=tf.WholeFileReader()

_,img_bytes=reader.read(filenames_queue)

image=tf.image.decode_png(img_bytes,channels=1) #读取的是什么格式,就decode什么格式

#解码成单通道的,并且获得的结果的shape是[?, ?,1],也就是Graph不知道图像的大小,需要set_shape

image.set_shape([180,180,1]) #set到原本已知图像的大小。或者直接通过tf.image.resize_images,tf.reshape()

image=tf.image.convert_image_dtype(image,tf.float32)

#预处理 下面的一句代码可以换成自己想使用的预处理方式

#image=tf.divide(image,255.0)

return tf.train.batch([image],batch_size)

这里的date_file是指文件夹所在的路径,不包括文件名。第一句是遍历指定目录下的文件名称,存放到一个list中。当然这个做法有很多种方法,比如glob.glob,或者tf.train.match_filename_once

全部代码如下:

import tensorflow as tf

import os

def read_image(data_file,batch_size):

data_names=[os.path.join(data_file,k) for k in os.listdir(data_file)]

filenames_queue=tf.train.string_input_producer(data_names,num_epochs=5,shuffle=True,capacity=30)

reader=tf.WholeFileReader()

_,img_bytes=reader.read(filenames_queue)

image=tf.image.decode_jpeg(img_bytes,channels=1)

image=tf.image.resize_images(image,(180,180))

image=tf.image.convert_image_dtype(image,tf.float32)

return tf.train.batch([image],batch_size)

def main( ):

img_path=r'F:\dataSet\WIDER\WIDER_train\images\6--Funeral' #本地的一个数据集目录,有足够的图像

img=read_image(img_path,batch_size=10)

image=img[0] #取出每个batch的第一个数据

print(image)

init=[tf.global_variables_initializer(),tf.local_variables_initializer()]

with tf.Session() as sess:

sess.run(init)

coord = tf.train.Coordinator()

threads = tf.train.start_queue_runners(sess=sess,coord=coord)

try:

while not coord.should_stop():

print(image.shape)

except tf.errors.OutOfRangeError:

print('read done')

finally:

coord.request_stop()

coord.join(threads)

if __name__=="__main__":

main()

"""

输出如下:

(180, 180, 1)

(180, 180, 1)

(180, 180, 1)

(180, 180, 1)

(180, 180, 1)

"""

这段代码可以说写的很是规整了。注意到init里面有对local变量的初始化,并且因为用到了队列,当然要告诉电脑什么时候队列开始, tf.train.Coordinator 和 tf.train.start_queue_runners 就是两个管理队列的类,用法如程序所示。

与 tf.train.string_input_producer相似的函数是 tf.train.slice_input_producer。 tf.train.slice_input_producer和tf.train.string_input_producer的第一个参数形式不一样。等有时间再做一个二者比较的博客

3、对TFRecorder解码获得图像数据

其实这块和上一种方式差不多的,更重要的是怎么生成TFRecorder文件,这一部分我会补充到另一篇博客上。

仍然使用 tf.train.string_input_producer。

import tensorflow as tf

import matplotlib.pyplot as plt

import os

import cv2

import numpy as np

import glob

def read_image(data_file,batch_size):

files_path=glob.glob(data_file)

queue=tf.train.string_input_producer(files_path,num_epochs=None)

reader = tf.TFRecordReader()

print(queue)

_, serialized_example = reader.read(queue)

features = tf.parse_single_example(

serialized_example,

features={

'image_raw': tf.FixedLenFeature([], tf.string),

'label_raw': tf.FixedLenFeature([], tf.string),

})

image = tf.decode_raw(features['image_raw'], tf.uint8)

image = tf.cast(image, tf.float32)

image.set_shape((12*12*3))

label = tf.decode_raw(features['label_raw'], tf.float32)

label.set_shape((2))

# 预处理部分省略,大家可以自己根据需要添加

return tf.train.batch([image,label],batch_size=batch_size,num_threads=4,capacity=5*batch_size)

def main( ):

img_path=r'F:\python\MTCNN_by_myself\prepare_data\pnet*.tfrecords' #本地的几个tf文件

img,label=read_image(img_path,batch_size=10)

image=img[0]

init=[tf.global_variables_initializer(),tf.local_variables_initializer()]

with tf.Session() as sess:

sess.run(init)

coord = tf.train.Coordinator()

threads = tf.train.start_queue_runners(sess=sess,coord=coord)

try:

while not coord.should_stop():

print(image.shape)

except tf.errors.OutOfRangeError:

print('read done')

finally:

coord.request_stop()

coord.join(threads)

if __name__=="__main__":

main()

在read_image函数中,先使用glob函数获得了存放tfrecord文件的列表,然后根据TFRecord文件是如何存的就如何parse,再set_shape;这里有必要提醒下parse的方式。我们看到这里用的是tf.decode_raw ,因为做TFRecord是将图像数据string化了,数据是串行的,丢失了空间结果。从features中取出image和label的数据,这时就要用 tf.decode_raw  解码,得到的结果当然也是串行的了,所以set_shape 成一个串行的,再reshape。这种方式是取决于你的编码TFRecord方式的。

再举一种例子:

reader=tf.TFRecordReader()

_,serialized_example=reader.read(file_name_queue)

features = tf.parse_single_example(serialized_example, features={

'data': tf.FixedLenFeature([256,256], tf.float32), ###

'label': tf.FixedLenFeature([], tf.int64),

'id': tf.FixedLenFeature([], tf.int64)

})

img = features['data']

label =features['label']

id = features['id']

这个时候就不需要任何解码了。因为做TFRecord的方式就是直接把图像数据append进去了。

参考链接:

到此这篇关于浅谈TensorFlow中读取图像数据的三种方式的文章就介绍到这了,更多相关TensorFlow 读取图像数据内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

python读取图像数据流_浅谈TensorFlow中读取图像数据的三种方式相关推荐

  1. python3字节转化字符_浅谈 Python3 中对二进制数据 XOR 编码的正确姿势

    Python3 中的默认编码是 UTF-8,这给大家写 Python 代码带来了很大的便利,不用再像 Python2.x 那样为数据编码操碎了心.但是,由于全面转向 UTF-8 编码,Python3 ...

  2. [转] 浅谈脱壳中的附加数据问题(overlay)

    浅谈脱壳中的附加数据问题(overlay) Author:Lenus From: www.popbase.net E-mail:Lenus_M@163.com -------------------- ...

  3. 浅谈脱壳中的附加数据问题(overlay)

    浅谈脱壳中的附加数据问题(overlay) Author:Lenus From: www.popbase.net E-mail:Lenus_M@163.com -------------------- ...

  4. android获取存储设备根目录,浅谈android获取存储目录(路径)的几种方式和注意事项...

    通常, 我们创建文件/目录, 或者存储图片什么的, 我们都需要拿到手机的存储路径, 现在我们就来看一下获取手机存储路径的几种方式(作为工具类方法调用即可): 第一种: 获取 /storage/emul ...

  5. python csv库,Python 中导入csv数据的三种方法

    Python 中导入csv数据的三种方法,具体内容如下所示: 1.通过标准的Python库导入CSV文件: Python提供了一个标准的类库CSV文件.这个类库中的reader()函数用来导入CSV文 ...

  6. python中rstrip用法_浅谈Python3中strip()、lstrip()、rstrip()用法详解

    简单来说,三种方法是为了删除字符串中不同位置的指定字符.其中,strip()用于去除字符串的首尾字符,同理,lstrip()用于去除左边的字符,rstrip()用于去除右边的字符 Python中有三个 ...

  7. matlab泊松分布随机数和图像_浅谈可靠性理论中的常用概率分布

    浅谈可靠性理论中的常用概率分布 1. 泊松分布 基本原理 泊松分布是最常见的离散概率分布,适合描述单位时间内随机事件发生的概率. (1) 泊松分布概率密度(不可靠度)计算公式 MATLAB概率密度函数 ...

  8. swift 引用其他类_浅谈swift中闭包修饰符 weak?unowned? 或什么都不用

    浅谈swift中闭包修饰符 weak?unowned? 或什么都不用 平常的开发中,clourse是我们iOSr绕不过去的坎儿. 苹果本身也很重视闭包,像之前的一些老的target-action类型的 ...

  9. python去水印如何制作mask_浅谈图像处理中掩膜(mask)的意义

    刚开始涉及到图像处理的时候,在opencv等库中总会看到mask这么一个参数,非常的不理解,在查询一系列资料之后,写下它们,以供翻阅. 什么是掩膜(mask) 数字图像处理中的掩膜的概念是借鉴于PCB ...

最新文章

  1. 可视化编码_Modulz简介:可视编码的下一步
  2. 【转载】ESFramewor使用技巧(2)-- 在插件中使用NHibernate
  3. Datawhale组队-Pandas(下)时序数据(打卡)
  4. Flutter实战一Flutter聊天应用(四)
  5. 揭开PC-Lint9的神秘面纱
  6. LeetCode 59. Spiral Matrix II
  7. OpenGL 渲染篇
  8. 研磨设计模式——桥接模式
  9. PS中有哪些快速抠图的方法
  10. 星空之夜_hash+dfs
  11. c++实现查询天气预报
  12. 【网络工程】交换机各层作用,100路监控摄像是否_该采用核心交换机吗
  13. SD卡和SDHC卡操作
  14. 腾讯面试总结——iOS开发
  15. J2EE工作流管理系统jBPM详解(二)
  16. SendGrid之WebHook的使用【Java】
  17. 计算机少了4个磁盘,电脑硬盘突然少了几个分区,这是怎么回事?如何修复?...
  18. 淘宝店铺产品排名是靠人气的吗?影响因素有哪些?
  19. OpenLayers 彻底清除测量图层Overlays
  20. 判断OOBE 完成状态

热门文章

  1. oracle数据库快照打点,Oracle数据库快照的使用
  2. oracle dbra,资源供给:IO子系统之二
  3. spring jdbctemplate 实体列与数据表列 查询
  4. liunx下搭建mysql主从_linux下搭建mysql主从
  5. 【OS学习笔记】三十二 保护模式九:分页机制对应的汇编代码之---内核代码
  6. 【OS学习笔记】二十一 保护模式六:保户模式下操作系统内核如何加载用户程序并运行 对应的汇编代码之内核代码
  7. iOS9适配(包括APNs)的改变
  8. linux Packet socket (1)简单介绍
  9. 批量造数据的一种方法
  10. Html.Action、html.ActionLink与Url.Action的区别