前言:

为了更加展示tfrecord数据的相关操作,笔者后续又写了一个实践的简单例子进一步解释,具体可以看:

TFrecords 制作数据集小例子(多标签)_爱吃火锅的博客-CSDN博客

正文:

tfrecord数据文件是一种将图像数据和标签统一存储的二进制文件,能更好的利用内存,在tensorflow中快速的复制,移动,读取,存储等.

一首先是转化为tfrecord文件格式:

with tf.python_io.TFRecordWriter(output_filename) as tfrecord_writer:#生成protocol数据类型example = image_to_tfexample(image, labels)tfrecord_writer.write(example.SerializeToString())

其中output_filename就是定义输出的文件位置如./datasets/train.tfrecords

然后通过tf.python_io.TFRecordWriter class中的write方法将tfrecord文件写入到output_filename

一般的话这里会将数据集分成测试集和训练集,所以可以这样定义一个生成tfrecord的函数:

def gen_tfrecord(split_name, filenames, dataset_dir):assert split_name in ['train', 'test']with tf.Session() as sess:#定义tfrecord文件的路径+名字output_filename = os.path.join(dataset_dir,split_name + '.tfrecords')with tf.python_io.TFRecordWriter(output_filename) as tfrecord_writer:for i,filename in enumerate(filenames):try:sys.stdout.write('\r>> Converting image %d/%d' % (i+1, len(filenames)))sys.stdout.flush()#生成protocol数据类型example = image_to_tfexample(image, labels)tfrecord_writer.write(example.SerializeToString())except IOError as e:print('Could not read:',filename)print('Error:',e)sys.stdout.write('\n')sys.stdout.flush()

split_name就是指定是训练集还是测试集

filenames是每一张图片的路径

然后外部通过下面切分为训练集还是测试集

training_filenames = photo_filenames[FLAGS.test_num:]
testing_filenames = photo_filenames[:FLAGS.test_num]

然后调用即可

  gen_tfrecord('train', training_filenames,FLAGS.dataset_dir)gen_tfrecord('test', testing_filenames, FLAGS.dataset_dir)

其中dataset_dir就是图片的目录./datasets/images/

关于image和labels,对源数据集做预处理得到的

例如image的获得:

 #读取图片image = Image.open(filename)  #根据模型的结构resizeimage = image_data.resize((224, 224))#灰度化image = np.array(image_data.convert('L'))#将图片转化为bytesimage= image_data.tobytes()   

labels的获得:

#获取label
labels = filename.split('/')[-1][0:4]

关于二者的获取可以在外部处理也可以集成到gen_tfrecord函数中,生成的tfrecord也同时放到了图片目录下。

故:

def  gen_tfrecord(split_name, filenames, dataset_dir):assert split_name in ['train', 'test']with tf.Session() as sess:#定义tfrecord文件的路径+名字output_filename = os.path.join(dataset_dir,split_name + '.tfrecords')with tf.python_io.TFRecordWriter(output_filename) as tfrecord_writer:for i,filename in enumerate(filenames):try:sys.stdout.write('\r>> Converting image %d/%d' % (i+1, len(filenames)))sys.stdout.flush()#读取图片image_data = Image.open(filename)  #根据模型的结构resizeimage_data = image_data.resize((224, 224))#灰度化image_data = np.array(image_data.convert('L'))#将图片转化为bytesimage_data = image_data.tobytes()              #获取labellabels = filename.split('/')[-1][0:4]#生成protocol数据类型example = image_to_tfexample(image_data, labels)tfrecord_writer.write(example.SerializeToString())except IOError as e:print('Could not read:',filename)print('Error:',e)sys.stdout.write('\n')sys.stdout.flush()

上面的数据集中图片的名字正好是其label,当然二者获取的方式不尽相同,也有可能是images目录下对应三个子目录例如:

cat,dog,fish然后每个目录下面是对应的图片,这时候预处理无非就是要变,定义的gen_tfrecord函数也可能稍微变一下

好了接下来说一下当中的 image_to_tfexample函数,这个也需要自己定义:


def image_to_tfexample(image, label):return tf.train.Example(features=tf.train.Features(feature={'image': tf.train.Feature(bytes_list = tf.train.BytesList(value=[img]))'label': tf.train.Feature(int64_list = tf.train.Int64List(value=[label])),}))

tf.train.Example 是一块 buffer即协议缓冲区,其中包含了各种feature并以字典的形式赋值。

关于这里说明三点:

1 正如value=[XXX]其中XXX必须是列表形式,也就是说如果传进来的label是列表,那么就可以这样写:

'label': tf.train.Feature(int64_list = tf.train.Int64List(value=label)

2 传进来的不必要非得是一个label,什么意思呢?比如多任务的时候,可以将label(比如验证码:256)拆分为多个label,每个数字代表一个label

#获取label
labels = filename.split('/')[-1][0:3]
num_labels = []
for j in range(3):num_labels.append(int(labels[j]))

那么就是这样:

example = image_to_tfexample(image_data, num_labels[0], num_labels[1], num_labels[2])
def image_to_tfexample(image_data, label0, label1, label2):return tf.train.Example(features=tf.train.Features(feature={'image': tf.train.Feature(bytes_list = tf.train.BytesList(value=[img]))'label0': tf.train.Feature(int64_list = tf.train.Int64List(value=label0)),'label1': tf.train.Feature(int64_list = tf.train.Int64List(value=label1)),'label2': tf.train.Feature(int64_list = tf.train.Int64List(value=label2)),}))

3 tfrecord支持的格式除了上面的整型和二进制二种格式,还支持浮点数即

tf.train.Feature(bytes_list = tf.train.FloatList(value=[float_scalar]))

二 读取tfrecord文件:

首先介绍下epoch,比如我们要训练的数据集是10张图片即1.jpg、2.jpg、3.jpg、....10.jpg,我们先全部训练这10张图片,然后还可以再来一轮,就是再用这十张图片训练一次,这里的epoch就是轮数当epoch=20时,就是用20轮数据集。

所以过程是这样的:

当epoch=10时,

现将10张图片全部都装载到文件名队列(q1)(装载10次)

q1
1.jpg
2.jpg
.......
10.jpg
1.jpg
2.jpg
.......
10.jpg
................
................
1.jpg
2.jpg
.......
10.jpg

当我们的程序sess.run运行时,内存队列(q2)会从q1依次读取10图片到q2

tf中提供了相关API

使用tf.train.string_input_producer函数,系统会自动将它转为一个文件名队列,其有两个参数num_epochs和shuffle

num_epochs就是epoch数,shuffle就是说是否将一个epoch内文件的顺序是打乱,即不按照1.jpg、2.jpg、3.jpg、....10.jpg,而是9.jpg、5.jpg、3.jpg、....10.jpg等等,shuffle=Ture时,就是打乱

关于内存队列不用我们自己建立,使用各种reader对象从文件名队列中读取数据就可以了,具体到tfrecord的reader即为

reader = tf.TFRecordReader()

之后调用tf.TFRecordReader的tf.parse_single_example解析器,将Example协议缓冲区(protocol buffer)解析为张量

解析了image后还进行了一些预处理,整体如下:

def read_and_decode(filename):# 根据文件名生成一个队列filename_queue = tf.train.string_input_producer([filename])reader = tf.TFRecordReader()# 返回文件名和文件_, serialized_example = reader.read(filename_queue)   features = tf.parse_single_example(serialized_example,features={'image' : tf.FixedLenFeature([], tf.string),'label': tf.FixedLenFeature([], tf.int64),})# 获取图片数据image = tf.decode_raw(features['image'], tf.uint8)# tf.train.shuffle_batch必须确定shapeimage = tf.reshape(image, [224, 224])# 图片预处理image = tf.cast(image, tf.float32) / 255.0image = tf.subtract(image, 0.5)image = tf.multiply(image, 2.0)# 获取labellabel = tf.cast(features['label'], tf.int32)return image, label

如果是上面所说的多任务有多个标签的相应读取tfrecord函数可以为:

def read_and_decode(filename):# 根据文件名生成一个队列filename_queue = tf.train.string_input_producer([filename])reader = tf.TFRecordReader()# 返回文件名和文件_, serialized_example = reader.read(filename_queue)   features = tf.parse_single_example(serialized_example,features={'image' : tf.FixedLenFeature([], tf.string),'label0': tf.FixedLenFeature([], tf.int64),'label1': tf.FixedLenFeature([], tf.int64),'label2': tf.FixedLenFeature([], tf.int64),})# 获取图片数据image = tf.decode_raw(features['image'], tf.uint8)# tf.train.shuffle_batch必须确定shapeimage = tf.reshape(image, [224, 224])# 图片预处理image = tf.cast(image, tf.float32) / 255.0image = tf.subtract(image, 0.5)image = tf.multiply(image, 2.0)# 获取labellabel0 = tf.cast(features['label0'], tf.int32)label1 = tf.cast(features['label1'], tf.int32)label2 = tf.cast(features['label2'], tf.int32)return image, label0, label1, label2

在实际中要分batch进行读取数据(就是说比如数据集有1000M,每一个batch=10M):

那么在一个epoch内分100次读取,每次转载10M的数据,关于batch,tf一般有两个相关的API即tf.train.batch和tf.train.shuffle_batch

tf.train.batch:

batch(tensors, batch_size, num_threads=1, capacity=32,enqueue_many=False, shapes=None, dynamic_pad=False,allow_smaller_final_batch=False, shared_name=None, name=None)
  • 第一个参数tensors:tensor序列或tensor字典,可以是含有单个样本的序列;
  • 第二个参数batch_size: 生成的batch的大小;
  • 第三个参数num_threads:执行tensor入队操作的线程数量,可以设置使用多个线程同时并行执行,提高运行效率,但也不是数量越多越好;
  • 第四个参数capacity: 定义生成的tensor序列的最大容量;
  • 第五个参数enqueue_many: 定义第一个传入参数tensors是多个tensor组成的序列,还是单个tensor;
  • 第六个参数shapes: 可选参数,默认是推测出的传入的tensor的形状;
  • 第七个参数dynamic_pad: 定义是否允许输入的tensors具有不同的形状,设置为True,会把输入的具有不同形状的tensor归一化到相同的形状;
  • 第八个参数allow_smaller_final_batch: 设置为True,表示在tensor队列中剩下的tensor数量不够一个batch_size的情况下,允许最后一个batch的数量少于batch_size, 设置为False,则不管什么情况下,生成的batch都拥有batch_size个样本;
  • 第九个参数shared_name: 可选参数,设置生成的tensor序列在不同的Session中的共享名称;
  • 第十个参数name: 操作的名称;

一般的话只需要定义前三个即:

tf.train.batch([example, label], batch_size=batch_size, capacity=capacity)

tf.train.shuffle_batch:(和tf.train.batch差不多,最大的差别就是打乱输出一个batch,而不是依次取出一个batch)

tf.train.shuffle_batch([example, label], batch_size=batch_size, capacity=capacity, min_after_dequeue,num_threads=threads)

里面的相同的参数意思也同上。关于min_after_dequeue是出队后,队列至少剩下min_after_dequeue个数据,但其往往是用来定义混乱级别的,即在定义了随机取样的缓冲区大小的时候,min_after_dequeue越大表示更大级别的混合但是会导致启动更加缓慢,并且会占用更多的内存,同时一定要保证这参数小于capacity参数的值,否则会出错。

一般的话:capacity=(min_after_dequeue+(num_threads+a small safety margin∗batchsize)

num_threads指的是线程数

关于tf.train.shuffle_batch更多的可以看官方文档或者这篇tf.train.shuffle_batch函数解析_遗世独立的乌托邦-CSDN博客

以上按batch读取的话,最后会自动在前面添加一个维度,比如数据的维度是[100],batch_size是10,那么读取出来的shape就是[10,100]

除此之外使用tf.train.string_input_producer创建文件名队列后,其实系统其实还是处于“停滞状态”的,只有tf.train.start_queue_runners之后,才会启动填充队列的线程即

# 创建一个协调器,管理线程
coord = tf.train.Coordinator()
# 启动QueueRunner, 此时文件名队列已经进队
threads = tf.train.start_queue_runners(sess=sess, coord=coord)

程序进行完后记关闭线程:

 # 通知其他线程关闭coord.request_stop()# 其他所有线程关闭之后,这一函数才能返回coord.join(threads)

所以最后总结一下步骤:

一:定义 gen_tfrecord函数,是源数据转化为tfrecord文件(test and train)

二:定义 read_and_decode函数,读取tfrecord,获得数据(类如image)及其label

三:通过tf.train.batch或者tf.train.shuffle_batch将数据进行分批次的打包(batch为一个批次)

四:定义epoch数,即要利用源数据多少轮,代码中就是最外面的一个for

五:在每一个epoch下,将一个个batch feed给神经网络进行训练

注意:在训练前启动线程tf.train.start_queue_runners,不要程序一直会停留在“停滞状态”

为了更直观的了解上面过程,下面举个简单类子来说明一下:

注:类子主要来自于深度学习框架Tensorflow学习与应用_哔哩哔哩_bilibili的up主。

首先准备一个数据集(验证码),

首先要生成验证码图片,在datasets目录下有gen_image.py用于生成验证码图片。这里可以通过下载或者爬虫获取各种数据集,笔者采用下面方法

需要安装captcha(这是一个生成验证码图片的库)

 pip install captcha

如果报错no module named setuptools可以参考

Python安装模块出错(No module named setuptools)解决方法 - Mr.Rice - 博客园

然后运行产生图片的脚本(gen_image.bat)

python C:/Users/asus-/Desktop/captcha_demo/datasets/gen_image.py ^
--output_dir C:/Users/asus-/Desktop/captcha_demo/datasets/images/ ^
--Captcha_size 4 ^
--image_num 1000 ^
pause

--output_dir就是输出图片的存储路径

--Captcha_size就是识别码图片上面字符的个数

--image_num就是产生图片的数量,但是有可能少于这个数,因为有可能产生重复的随机数,会覆盖前面的

关于gen_image.py为:

import tensorflow as tf
from captcha.image import ImageCaptcha
import random
import sysFLAGS = tf.app.flags.FLAGStf.app.flags.DEFINE_string('output_dir', '/ ', 'This is the saved directory of the picture')
tf.app.flags.DEFINE_integer('Captcha_size', 3, 'This is the number of characters of captcha')
tf.app.flags.DEFINE_integer('image_num', 1000, 'This is the number of pictures generated ,but less than  image_num')#验证码内容
Captcha_content = ['0','1','2','3','4','5','6','7','8','9']# 生成字符
def random_captcha_text():captcha_text = []for i in range(FLAGS.Captcha_size):ch = random.choice(Captcha_content)captcha_text.append(ch)return captcha_text# 生成字符对应的验证码
def gen_captcha_text_and_image():image = ImageCaptcha()captcha_text = random_captcha_text()captcha_text = ''.join(captcha_text)captcha = image.generate(captcha_text)image.write(captcha_text, FLAGS.output_dir + captcha_text + '.jpg')  def main(unuse_args):for i in range(FLAGS.image_num ):gen_captcha_text_and_image()sys.stdout.write('\r>> Creating image %d/%d' % (i+1, FLAGS.image_num))sys.stdout.flush()sys.stdout.write('\n')sys.stdout.flush()print("Finish!!!!!!!!!!!")if __name__ == '__main__':tf.app.run()

运行后为:

转化图片为tfrecord格式

同样这里写了一个简单的脚本:

python C:/Users/asus-/Desktop/captcha_demo/datasets/gen_tfrecord.py ^
--dataset_dir C:/Users/asus-/Desktop/captcha_demo/datasets/images/ ^
--output_dir C:/Users/asus-/Desktop/captcha_demo/datasets/ ^
--test_num 10 ^
--random_seed 0 ^
pause

从上到下依次是数据集位置,tfrecord生成位置,测试集个数,随机种子(用于打乱数据集)

import tensorflow as tf
import os
import random
import math
import sys
from PIL import Image
import numpy as npFLAGS = tf.app.flags.FLAGStf.app.flags.DEFINE_string('dataset_dir', '/ ', 'This is the source directory of the picture')
tf.app.flags.DEFINE_string('output_dir', '/ ', 'This is the saved directory of the picture')
tf.app.flags.DEFINE_integer('test_num', 20, 'This is the number of test of captcha')
tf.app.flags.DEFINE_integer('random_seed', 0, 'This is the random_seed')#判断tfrecord文件是否存在
def dataset_exists(dataset_dir):for split_name in ['train', 'test']:output_filename = os.path.join(dataset_dir,split_name + '.tfrecords')if not tf.gfile.Exists(output_filename):return Falsereturn True#获取所有验证码图片
def get_filenames_and_classes(dataset_dir):photo_filenames = []for filename in os.listdir(dataset_dir):#获取文件路径path = os.path.join(dataset_dir, filename)photo_filenames.append(path)return photo_filenamesdef int64_feature(values):if not isinstance(values, (tuple, list)):values = [values]return tf.train.Feature(int64_list=tf.train.Int64List(value=values))def bytes_feature(values):return tf.train.Feature(bytes_list=tf.train.BytesList(value=[values]))def image_to_tfexample(image_data, label0, label1, label2, label3):#Abstract base class for protocol messages.return tf.train.Example(features=tf.train.Features(feature={'image': bytes_feature(image_data),'label0': int64_feature(label0),'label1': int64_feature(label1),'label2': int64_feature(label2),'label3': int64_feature(label3),}))#把数据转为TFRecord格式
def convert_dataset(split_name, filenames, dataset_dir):assert split_name in ['train', 'test']with tf.Session() as sess:#定义tfrecord文件的路径+名字output_filename = os.path.join(FLAGS.output_dir,split_name + '.tfrecords')with tf.python_io.TFRecordWriter(output_filename) as tfrecord_writer:for i,filename in enumerate(filenames):try:sys.stdout.write('\r>> Converting image %d/%d' % (i+1, len(filenames)))sys.stdout.flush()#读取图片image_data = Image.open(filename)  #根据模型的结构resizeimage_data = image_data.resize((224, 224))#灰度化image_data = np.array(image_data.convert('L'))#将图片转化为bytesimage_data = image_data.tobytes()              #获取labellabels = filename.split('/')[-1][0:4]num_labels = []for j in range(4):num_labels.append(int(labels[j]))#生成protocol数据类型example = image_to_tfexample(image_data, num_labels[0], num_labels[1], num_labels[2], num_labels[3])tfrecord_writer.write(example.SerializeToString())except IOError as e:print('Could not read:',filename)print('Error:',e)sys.stdout.write('\n')sys.stdout.flush()def main(unuse_args):if dataset_exists(FLAGS.output_dir):print('tfcecord file has been existed!!')else:#获得所有图片photo_filenames = get_filenames_and_classes(FLAGS.dataset_dir)#把数据切分为训练集和测试集,并打乱random.seed(FLAGS.random_seed)random.shuffle(photo_filenames)training_filenames = photo_filenames[FLAGS.test_num:]testing_filenames = photo_filenames[:FLAGS.test_num]#数据转换convert_dataset('train', training_filenames,FLAGS.dataset_dir)convert_dataset('test', testing_filenames, FLAGS.dataset_dir)print('Finish!!!!!!!!!!!!!!!!!')if __name__ == '__main__':tf.app.run()

运行后:

下面是读取tfrecord格式

我们读取的是test测试集,这里test中有十个样本(batch=1,即每次取一个样本)

import tensorflow as tf
import image_reader as irBATCH_SIZE=1image, label0, label1, label2, label3 = ir.read_and_decode('C:/Users/asus-/Desktop/captcha_demo/datasets/test.tfrecords')#使用shuffle_batch可以随机打乱
image_batch, label_batch0, label_batch1, label_batch2, label_batch3 = tf.train.shuffle_batch([image, label0, label1, label2, label3], batch_size =BATCH_SIZE,capacity = 50000, min_after_dequeue=10000, num_threads=1)with tf.Session() as sess:sess.run(tf.global_variables_initializer())coord = tf.train.Coordinator()threads = tf.train.start_queue_runners(sess=sess, coord=coord)for i in range(30):b_image, b_label0, b_label1 ,b_label2 ,b_label3 = sess.run([image_batch, label_batch0, label_batch1, label_batch2, label_batch3])print('label:',b_label0, b_label1 ,b_label2 ,b_label3)coord.request_stop()coord.join(threads)

其中image_reader:

import tensorflow as tf
# 从tfrecord读出数据
def read_and_decode(filename):# 根据文件名生成一个队列filename_queue = tf.train.string_input_producer([filename])reader = tf.TFRecordReader()# 返回文件名和文件_, serialized_example = reader.read(filename_queue)   features = tf.parse_single_example(serialized_example,features={'image' : tf.FixedLenFeature([], tf.string),'label0': tf.FixedLenFeature([], tf.int64),'label1': tf.FixedLenFeature([], tf.int64),'label2': tf.FixedLenFeature([], tf.int64),'label3': tf.FixedLenFeature([], tf.int64),})# 获取图片数据image = tf.decode_raw(features['image'], tf.uint8)# tf.train.shuffle_batch必须确定shapeimage = tf.reshape(image, [224, 224])# 图片预处理image = tf.cast(image, tf.float32) / 255.0image = tf.subtract(image, 0.5)image = tf.multiply(image, 2.0)# 获取labellabel0 = tf.cast(features['label0'], tf.int32)label1 = tf.cast(features['label1'], tf.int32)label2 = tf.cast(features['label2'], tf.int32)label3 = tf.cast(features['label3'], tf.int32)return image, label0, label1, label2, label3

第一次我们使用tf.train.shuffle_batch运行后:

可以看到是乱序的,并不是依次取出

接下来我们用tf.train.batch来看一下结果:

可以看到,每十次循环一次,而且顺序不变!!

当实际项目中需要feed给神经网络时,在外面再加一个for循环用于epoch数即可!!!

如果想看类子的全部过程请看:

神经网络验证码识别_爱吃火锅的博客-CSDN博客_神经网络识别验证码

参考:

tensorflow读取数据-tfrecord格式_几何君的算法天空-CSDN博客_tfrecord

tf.train.batch和tf.train.shuffle_batch的理解_美利坚节度使-CSDN博客_shuffle_batch

404,您访问的页面已经不存在!

看到很多小伙伴私信和关注,为了不迷路,欢迎大家关注笔者的微信公众号,会定期发一些关于NLP的干活总结和实践心得,当然别的方向也会发,一起学习:


​​​​​​​

tensorflow中tfrecord数据操作相关推荐

  1. 使用Hive或Impala执行SQL语句,对存储在HBase中的数据操作

    https://www.zybuluo.com/aitanjupt/note/209941 使用Hive或Impala执行SQL语句,对存储在HBase中的数据操作 〇.摘要 一.基础环境 二.数据存 ...

  2. 数据科学 IPython 笔记本 7.6 Pandas 中的数据操作

    7.6 Pandas 中的数据操作 原文:Operating on Data in Pandas 译者:飞龙 协议:CC BY-NC-SA 4.0 本节是<Python 数据科学手册>(P ...

  3. 微信小程序引用php函数,微信小程序Page中data数据操作和函数调用详细介绍

    这篇文章主要介绍了微信小程序 详解Page中data数据操作和函数调用的相关资料,需要的朋友可以参考下 微信小程序 详解Page中data数据操作和函数调用 Page() 函数用来注册一个页面.接受一 ...

  4. python科学计算笔记(九)pandas中DataFrame数据操作函数

    Python数据分析工具pandas中DataFrame和Series作为主要的数据结构. 本文主要是介绍如何对DataFrame数据进行操作并结合一个实例测试操作函数. 1)查看DataFrame数 ...

  5. opencv获取mat的指针_数字图像处理之opencv中Mat数据操作

    数字图像处理其实就是处理二维矩阵数据.利用opencv来学习处理算法是一种比较好的方式.学习opencv,主要就是调用其中的图像处理函数来实现各种操作.如果要得到想要的处理结果,还需要对图像处理算法有 ...

  6. flask中的数据操作

    flask中数据访问: pip install flask-sqlalemy 创建数据: 创建app的工厂from flask import Flask from flask_sqlalchemy i ...

  7. mysql 目录武沛齐_MySQL数据表中的数据操作

    1.插入数据 insert into t_user (username,password,nickname) values ('foye','123','佛爷'); 以下方式必须写出所有的字段 ins ...

  8. Tensorflow中实现leakyRelu操作(高效)

    从github上转来,实在是厉害的想法,什么时候自己也能写出这种精妙的代码就好了 原地址: 简易高效的LeakyReLu实现 代码如下: 我做了些改进,因为实在tensorflow中使用,就将原来的a ...

  9. Oracle中获取文件中的数据,操作oracle中的数据文件

    收藏于http://dev.yesky.com/296/8090796.shtml Oracle数据库 中管理表空间和数据文件 数据库的三大组成部分:数据文件,控制文件,Redo日志. 表空间分为系统 ...

最新文章

  1. tomcat更换服务器后无法显示验证码
  2. linux如何定期备份,在Linux系统中简单地实现定时备份的方法
  3. 小程序离成功还差一个版本
  4. Java连接Redis及操作(一)
  5. 围观一下tp的游戏保护 一
  6. hdu5468 Puzzled Elena
  7. Python的虚拟环境virtualenv
  8. [html] url、href、src 详解
  9. 服务器如何修复dll,Windows10系统修复KernelBase.dll错误的解决方法
  10. python入门第六章 信息安全策略-文件备份 用户账户管理
  11. 通过一个小Trick实现shader的像素识别/统计操作
  12. 推荐一个腾讯大神的免费直播课!
  13. python 阿里云短信接口_python 之阿里云短信服务接入流程短信接口
  14. Kepware OPC与服务器通讯
  15. Chorme浏览器中安装Axure插件的方法
  16. CS-Notes 知识清单 备战版
  17. 安装win10 找不到固态硬盘
  18. 计算机专业的学生买什么电脑,设计类学生买什么电脑
  19. Teamwork(The second day of the team)
  20. 力扣46.全排列(回溯法)

热门文章

  1. 电话键盘字母数字转换
  2. mysql 统计时长_使用 mysql 统计平均用户在线时长
  3. 最大子序列求和_最大子序列和问题  一步一步到最优
  4. python : 利用turtle 画出一朵花 红花绿叶!
  5. 祝福祖国,生日快乐!
  6. 动手撸一个SQL规范检查工具
  7. Python列表的reverse函数
  8. ubuntu对硬盘进行分区
  9. 图像识别很简单,大家都在雪藏,我没挣到钱,所以我分享了
  10. 日常开发技巧(一):延迟删除文件