数据集概述

  1. 对于多类别图片数据集采集,在采集完成之后,采集设备可能是不同的手机或者摄像头,因此获取的最后图片数据集尺寸大小,分辨率可能差异性很大,对之后的模型训练有很大的影响;因此我们需要将数据集中的图片,重新处理至同一分辨率和大小。
  2. 如果处理完成数据集数量还不满足要求,在数量差异较小的时候可以通过图片扩增的手段增加数据集。

常用图像扩增所采用的变换

  1. 一定程度内的随机旋转、平移、缩放、裁剪、填充、左右翻转;
  2. 对图像中的像素添加噪声扰动。常见的有椒盐噪声、高斯白噪声;
  3. 颜色变换。在图像的RGB颜色空间上添加增量;
  4. 改变图片的亮度、清晰度、对比度、锐度等;
  5. 除此之外,还有采样算法SMTE,生成对抗网络GAN等都可以进行图像扩充;
    ------声明:摘选自《百面机器学习》,不错的书,推荐------

代码

Python >= 3.6,Opencv2

  1. 尺寸一致:
    将指定文件夹下的所有图片resize至同一尺寸,并保存在指定文件夹下
# -*-coding = utf-8 -*-
"""
流程:
1.读取指定文件夹所有文件(必须都是图片)
2.进行resize,并存储在指定文件夹下
修改值:
path_read: 需要进行修改的图片存储的文件夹
path_write: 修改后的图片存储的文件夹,必须为空,会对图片重新编号00000-09999
target_size:[x, y] 修改后文件的尺寸
"""
import os
import cv2if __name__ == "__main__":path_read = "D:/pic_old/"path_write = "D:/pic_new/"target_size = [512, 512]image_list = [x for x in os.listdir(path_read)]for num, img in enumerate(image_list):print(num, img)image = cv2.imread(path_read+img, cv2.IMREAD_COLOR)# print(path_read+"/"+img)new_image = cv2.resize(image, (target_size[0], target_size[1]), interpolation=cv2.INTER_CUBIC)image_dir = path_write+str(num).zfill(5)+'.jpg'cv2.imwrite(image_dir, new_image)
  1. 图片变换:
    流程:
    (1)需要修改的参数:
    path_read: 读取原始数据集图片的位置;
    path_write: 图片扩增后存放的位置;
    picture_size: 图片之后存储的尺寸;
    enhance_hum: 需要通过扩增手段增加的图片数量
    (2)扩增手段:
    Image_flip:
    #翻转图片;随机旋转翻转方向,垂直/水平/垂直+水平
    Image_traslation:
    #平移图片,随机选择平移方向,指定平移像素100(可以修改),抽取原始图片像素点填补平移后空白区域;
    Image_rotate:
    #旋转图片,随机从rotate_angle列表中抽取旋转角度
    Image_noise:
    #添加噪声,随机选择高斯噪声或椒盐噪声;且高斯噪声的方差与椒盐噪声的比例都是随机抽取;
# -*-coding = utf-8 -*-
"""
1. Image_flip:翻转图片
2. Image_traslation:平移图片
3. Image_rotate:旋转图片
4. Image_noise:添加噪声
"""
import os
import cv2
import numpy as np
from random import choice
import randomdef Image_flip(img):""":param img:原始图片矩阵:return: 0-垂直; 1-水平; -1-垂直&水平"""if img is None:returnparas = [0, 1, -1]img_new = cv2.flip(img, choice(paras))return img_newdef Image_traslation(img):""":param img: 原始图片矩阵:return: [1, 0, 100]-宽右移100像素; [0, 1, 100]-高下移100像素"""paras_wide = [[1, 0, 100], [1, 0, -100]]paras_height = [[0, 1, 100], [0, 1, -100]]rows, cols = img.shape[:2]img_shift = np.float32([choice(paras_wide), choice(paras_height)])border_value = tuple(int(x) for x in choice(choice(img)))img_new = cv2.warpAffine(img, img_shift, (cols, rows), borderValue=border_value)return img_newdef Image_rotate(img):""":param img:原始图片矩阵:return:旋转中心,旋转角度,缩放比例"""rows, cols = img.shape[:2]rotate_core = (cols/2, rows/2)rotate_angle = [60, -60, 45, -45, 90, -90, 210, 240, -210, -240]paras = cv2.getRotationMatrix2D(rotate_core, choice(rotate_angle), 1)border_value = tuple(int(x) for x in choice(choice(img)))img_new = cv2.warpAffine(img, paras, (cols, rows), borderValue=border_value)return img_newdef Image_noise(img):""":param img:原始图片矩阵:return: 0-高斯噪声,1-椒盐噪声"""paras = [0, 1]gaussian_class = choice(paras)noise_ratio = [0.05, 0.06, 0.08]if gaussian_class == 1:output = np.zeros(img.shape, np.uint8)prob = choice(noise_ratio)thres = 1 - prob#print('prob', prob)for i in range(img.shape[0]):for j in range(img.shape[1]):rdn = random.random()if rdn < prob:output[i][j] = 0elif rdn > thres:output[i][j] = 255else:output[i][j] = img[i][j]return outputelse:mean = 0var=choice([0.001, 0.002, 0.003])#print('var', var)img = np.array(img/255, dtype=float)noise = np.random.normal(mean, var**0.5, img.shape)out = img + noiseif out.min() < 0:low_clip = -1else:low_clip = 0out = np.clip(out, low_clip, 1.0)out = np.uint8(out*255)return outif __name__ == "__main__":"""path_read: 读取原始数据集图片的位置;path_write:图片扩增后存放的位置;picture_size:图片之后存储的尺寸;enhance_hum: 需要通过扩增手段增加的图片数量"""path_read = "D:/pic_old/"path_write = "D:/pic_new/"enhance_num = 500image_list = [x for x in os.listdir(path_read)]existed_img = len(image_list)while enhance_num > 0:img = choice(image_list)image = cv2.imread(path_read+img, cv2.IMREAD_COLOR)algorithm = [1, 2, 3, 4]random_process = choice(algorithm)if random_process == 1:image = Image_flip(image)elif random_process == 2:image = Image_traslation(image)elif random_process == 3:image = Image_rotate(image)else:image = Image_noise(image)image_dir = path_write+str(enhance_num+existed_img-1).zfill(5)+'.jpg'cv2.imwrite(image_dir, image)enhance_num -= 1

3. Python根据关键词百度图片爬虫
这类代码用的是网上其他人的,为了防止侵权,贴出代码来源: https://www.cnblogs.com/zishengY/articles/9371765.html
为了方便你们用,我把代码移植过来了,只需要修改ROOT_DIR、KEYWORD和MAX_NUM就行,分别代表图片存放路径、关键词和需要下载的数量。

# coding:utf-8import os
import re
import urllib
import shutil
import requests
import itertools# ------------------------ Hyperparameter ------------------------ROOT_DIR = 'D:/pic_save/'# 存放所下载图片的文件夹
SAVE_DIR = ROOT_DIR
# 如有多个关键字,需用空格进行分隔
KEYWORD = ''
# 保存后的图片格式
SAVE_TYPE = '.jpg'
# 需要下载的图片数量
MAX_NUM = 2000# ------------------------ URL decoding ------------------------
str_table = {'_z2C$q': ':','_z&e3B': '.','AzdH3F': '/'
}char_table = {'w': 'a','k': 'b','v': 'c','1': 'd','j': 'e','u': 'f','2': 'g','i': 'h','t': 'i','3': 'j','h': 'k','s': 'l','4': 'm','g': 'n','5': 'o','r': 'p','q': 'q','6': 'r','f': 's','p': 't','7': 'u','e': 'v','o': 'w','8': '1','d': '2','n': '3','9': '4','c': '5','m': '6','0': '7','b': '8','l': '9','a': '0'
}
char_table = {ord(key): ord(value) for key, value in char_table.items()}# ------------------------ Encoding ------------------------
def decode(url):for key, value in str_table.items():url = url.replace(key, value)return url.translate(char_table)# ------------------------ Page scroll down ------------------------
def buildUrls():word = urllib.parse.quote(KEYWORD)url = r"http://image.baidu.com/search/acjson?tn=resultjson_com&ipn=rj&ct=201326592&fp=result&queryWord={word}&cl=2&lm=-1&ie=utf-8&oe=utf-8&st=-1&ic=0&word={word}&face=0&istype=2nc=1&pn={pn}&rn=60"urls = (url.format(word=word, pn=x) for x in itertools.count(start=0, step=60))return urlsre_url = re.compile(r'"objURL":"(.*?)"')# ------------------------ Get imgURL ------------------------
def resolveImgUrl(html):imgUrls = [decode(x) for x in re_url.findall(html)]return imgUrls# ------------------------ Download imgs ------------------------
def downImgs(imgUrl, dirpath, imgName):filename = os.path.join(dirpath, imgName)try:res = requests.get(imgUrl, timeout=15)if str(res.status_code)[0] == '4':print(str(res.status_code), ":", imgUrl)return Falseexcept Exception as e:print(e)return Falsewith open(filename + SAVE_TYPE, 'wb') as f:f.write(res.content)# ------------------------ Check save dir ------------------------
def mkDir():try:shutil.rmtree(SAVE_DIR)except:passos.makedirs(SAVE_DIR)# ------------------------ Main ------------------------
if __name__ == '__main__':print('\n\n', '= = ' * 25, ' Keyword Spider ', ' = =' * 25, '\n\n')mkDir()urls = buildUrls()idx = 0for url in urls:html = requests.get(url, timeout=10).content.decode('utf-8')imgUrls = resolveImgUrl(html)# Ending if no imgif len(imgUrls) == 0:breakfor url in imgUrls:downImgs(url, SAVE_DIR, '{:>05d}'.format(idx + 1))print('  {:>05d}'.format(idx + 1))idx += 1if idx >= MAX_NUM:breakif idx >= MAX_NUM:breakprint('\n\n', '= = ' * 25, ' Download ', idx, ' pic ', ' = =' * 25, '\n\n')

这里没有写出STOME和GAN扩充数据集的方法,这两类方法太复杂,代码我也不会哈哈哈哈哈哈。不过数据集最好能够实地采集,或者从网上收集;如果是自己通过已有数据集扩充的,最好不要超过原数据集图片数量,不然容易造成过拟合。

图像采集数据集整理和扩充方案(含代码)相关推荐

  1. 人脸反欺诈数据集的预处理过程(含代码)

    背景介绍:在CASIA-FASD,Replay-Attack,MSU-MFSD以及OULU-NPU数据集中都是提供的视频,因此我们需要将其转成图片格式,之后再将其进行人脸裁剪,随后再进行标签文件的撰写 ...

  2. 凯斯西储(CWRU)数据集解读并将数据集划分为10分类(含代码)

    凯斯西储大学轴承故障数据集官方网址:https://engineering.case.edu/bearingdatacenter/download-data-file 官方数据集整理版(不用挨个下了) ...

  3. 【对话生成】常见对话生成数据集整理,含下载链接(更新至2022.06.04)

    [对话生成]常见对话生成数据集整理,含下载链接(持续更新) 前言 用于对话理解的对话数据集 IEMOCAP SEMAINE Mastodon MELD EMOTyDA MEmoR M3^33ED CP ...

  4. 神经网络语音分离必读论文、代码、教程、公开数据集整理分享

    语音分离的目标是把目标语音从背景干扰中分离出来.在信号处理中,语音分离属于很基本的任务类型,应用范围很广泛,包括听力假体.移动通信.鲁棒的自动语音以及说话人识别.人类听觉系统能轻易地将一个人的声音和另 ...

  5. CVPR2020论文分方向整理之检测篇(代码/论文解读/136篇打包下载)

    z CVPR2020论文分方向整理之检测篇(代码/论文解读/136篇打包下载) 极市平台(微信公众号ID:extrememart):专注计算机视觉前沿资讯和技术干货.本文由极市平台首发,转载需获授权. ...

  6. 【推荐系统多任务学习 MTL】PLE论文精读笔记(含代码实现)

    论文地址: Progressive Layered Extraction (PLE): A Novel Multi-Task Learning (MTL) Model for Personalized ...

  7. 实体对齐(Entity Alignment)相关论文与数据集整理

    实体对齐(Entity Alignment).知识图谱融合论文方法总结整理 传统的实体对齐方法主要通过属性相似度匹配的方式实现,利用有监督学习的机器学习模型,如:决策树.支持向量机.集成学习等.依赖实 ...

  8. 前端实现红包雨功能_最全解密微信红包随机算法(含代码实现)

    code小生 一个专注大前端领域的技术平台公众号回复 Android加入安卓技术群 "  1.引言 这个系列文章已经整理了10篇,但都没有涉及到具体的红包算法实现,主要有以下两方面原因.一方 ...

  9. 最全解密微信红包随机算法(含代码实现)

    code小生 一个专注大前端领域的技术平台 公众号回复Android加入安卓技术群 " 本文内容编写时,参考了网上的资料,详见"参考资料"部分,感谢分享者..本文已同步发 ...

最新文章

  1. 图表控件 c++_用C/C++编写16位虚拟内核
  2. 【MyBatis】MyBatis分页插件PageHelper的使用
  3. ThreadLocal 是什么?有哪些使用场景?——Spring系列学习笔记
  4. ABAP的OPEN SQL和Hybris Commerce的Flexible Search简介
  5. 开售破发、二手市场跳水 iPhone SE3 “割韭菜”功力大减
  6. GBDT迭代决策树的入门教程
  7. 如何将python数据输入到excel中_如何使用python将大量数据导出到Excel中的小技巧之一...
  8. 对称加密算法和非对称加密算法介绍
  9. VLAN基础、接口类型和实验
  10. OpenCV 学习笔记 04 深度估计与分割——GrabCut算法与分水岭算法
  11. Android OpenCV 身份证训练
  12. 天津理工大学和天津工业大学计算机考研,天津工业大学和天津理工大学,谁的实力更强?谁的录取分数更高呢...
  13. 从零搭建Spring Boot脚手架(4):手写Mybatis通用Mapper
  14. eclipse创建Javaweb项目
  15. 微信活码系统/微信群二维码/活码生成系统/生成微信活码
  16. Gym - 101853E E. Maximum Sum (状压DP)
  17. UE4 凹多边形渲染
  18. 诺基亚手机运行linux,LINUX:基本功能(2)_诺基亚手机_手机其它OS-中关村在线...
  19. 如何遍历java对象属性
  20. AC、HC、AHC、ACT、LS的区别

热门文章

  1. arcgis测量面积长度
  2. 通用vue组件化搜索组件页面
  3. harbor安装时出现ERROR: An HTTP request took too long to complete. Retry with --verbose to obtain debug in
  4. laravel生成微信公众号带参数二维码并响应扫描带参数二维码
  5. 关于win11管理员提权方法的补充技巧
  6. 本题要求编写程序,计算序列部分和 1 - 1/4 + 1/7 - 1/10 + ... 直到最后一项的绝对值不大于给定精度eps。
  7. Algorithm 4th environment setup
  8. make: 放弃循环依赖 问题解决(3d 重建)
  9. 安装Windows操作系统纯净版
  10. 限时免费 | 学习成本超低的Python数据分析手册