CeleA是香港中文大学的开放数据,包含10177个名人身份的202599张图片,并且都做好了特征标记,这对人脸相关的训练是非常好用的数据集。

官网链接

网盘链接

别看只是一堆人脸,他们很贴心地做好了特征标记,也就是说,你可以找到类似下面这些标签:

40种属性:

01 5_o_Clock_Shadow 胡子,(清晨刮脸的人傍晚已长出的短髭 ) -1 
02 Arched_Eyebrows 柳叶眉 1 
03 Attractive 有魅力的 1 
04 Bags_Under_Eyes 眼袋 -1 
05 Bald 秃头的 -1 
06 Bangs 刘海 -1 
07 Big_Lips 大嘴唇 -1 
08 Big_Nose 大鼻子 -1 
09 Black_Hair 黑发 -1 
10 Blond_Hair 金发 -1 
11 Blurry 睡眼惺松的 -1 
12 Brown_Hair 棕发 1 
13 Bushy_Eyebrows 浓眉 -1 
14 Chubby 丰满的 -1 
15 Double_Chin 双下巴 -1 
16 Eyeglasses 眼镜 -1 
17 Goatee 山羊胡子 -1 
18 Gray_Hair 白发,灰发 -1 
19 Heavy_Makeup 浓妆 1 
20 High_Cheekbones 高颧骨 1 
21 Male 男性 -1 
22 Mouth_Slightly_Open 嘴轻微的张开 1 
23 Mustache 胡子 -1 
24 Narrow_Eyes 窄眼 -1 
25 No_Beard 没有胡子 1 
26 Oval_Face 瓜子脸,鹅蛋脸 -1 
27 Pale_Skin 白皮肤 -1 
28 Pointy_Nose 尖鼻子 1 
29 Receding_Hairline 发际线; 向后梳得发际线 -1 
30 Rosy_Cheeks 玫瑰色的脸颊 -1 
31 Sideburns 连鬓胡子,鬓脚 -1 
32 Smiling 微笑的 1 
33 Straight_Hair 直发 1 
34 Wavy_Hair 卷发; 波浪发 -1 
35 Wearing_Earrings 戴耳环 1 
36 Wearing_Hat 带帽子 -1 
37 Wearing_Lipstick 涂口红 1 
38 Wearing_Necklace 带项链 -1 
39 Wearing_Necktie 戴领带 -1 
40 Young 年轻人 1

文件含义

进入百度网盘可以看到多个文件,但是都是干什么的呢?应该下载哪个来用呢?

在动手下载之前,最好先读读README文件,里面有比较详细的描述,这里只简单介绍一下:

  • Img文件夹下是所有图片,图片又分三类文件:

img_celeba.7z 纯“野生”文件,也就是从网络爬取的没有做裁剪的图片
img_align_celeba_png.7z 把“野生”文件裁剪出人脸部分之后的图片,png格式
img_align_celeba.zip jpg格式的,比较小(推荐使用,直接解压即可)

图中可以看到,人脸图片的名字只是简单的编号,那肤色、发色、眼镜、性别等特征标签在哪呢,在之前的“Anno”文件夹中:

第一个“list_attr_celeba.txt”文本文件就记录了每一张图片的特征标签:

如图所示,第一行表示图片个数,第二行是特征类型,以空格分开,可以看到有超多特征。下面的行就是每张图片的标记了,第一列是图片名,后面的每个数字对应每一个特征,1表示正例,-1表示反例。

这样我们就有了图片和特征描述了,那怎么筛选出我们要的人脸图片呢?

假设我们要把所有人脸分成戴了眼镜的和没戴眼镜的两份集合,来训练从戴眼镜到不戴眼镜的转换。一个个地人眼去看去分类显然是不现实的,描述文件的意义就在于此。

我们可以写一份Python代码来遍历txt中每一张图片对应的“Eyeglasses”属性列,看是不是1,从而判断对应图片是否戴了眼镜。

数一数可以知道“Eyeglasses”是第16个属性,这样,我们可以读取这份属性描述txt,遍历每一行,看对应列是否是1,从而将图片名筛分到两个txt中去:

  1. f = open("list_attr_celeba.txt")
  2. newTxt = "glass.txt"
  3. newf = open(newTxt, "a+")
  4. newNoTxt = "noGlass.txt"
  5. newNof = open(newNoTxt, "a+")
  6. #跳过第一行202599
  7. line = f.readline()
  8. #跳过第二行属性名称
  9. line = f.readline()
  10. #第三行开始操作
  11. line = f.readline()
  12. while line:
  13. array = line.split()
  14. if (array[16] == "-1"):
  15. new_context = array[0] + '\n'
  16. newNof.write(new_context)
  17. else:
  18. new_context = array[0] + '\n'
  19. newf.write(new_context)
  20. line = f.readline()
  21. lines = len(newf.readlines())
  22. print ("There are %d lines in %s" % (lines, newTxt))
  23. lines = len(newNof.readlines())
  24. print ("There are %d lines in %s" % (lines, newNoTxt))
  25. f.close()
  26. newf.close()
  27. newNof.close()

筛选图片

得到两个记录了有无戴眼镜的图片名集合txt后,我们就可以根据这个来筛选图片了。

图片共二十多万张,我们如果采用针对一个txt中每个图片名都去从头到尾到文件夹里找一次的方案,处理起来就太慢了。

这里我们采取更快速的方法,遍历文件夹中所有图片,对于遇到的每个图片名(当然,因为文件夹中不止图片,所以先判断是否是图片,也就是后缀是否是.jpg),去记录有无戴眼镜的两个txt中分别找是否包含该图片名,哪个包含,则把该图片移动到对应文件夹下去。

这里还可以优化的是,在txt中找图片名时,也不能每次要找都从头到尾找,而要记录上次找到的位置,因为图片名时按顺序排好的,所以下一张要找的图片名一定会在下面的行,而不会在之前出现过的行,这样也可以提速。

由于两个txt中行数不一致(有无戴眼镜的图片数量不同),所以要判断当一个txt全部找完后,之后就不要再去该txt中找了,更不要继续往后移动行,这样会出错的。

整体优化完成后代码如下:

  1. mport os
  2. import shutil
  3. nof = open("noGlass.txt")
  4. hasf = open("glass.txt")
  5. noLine = nof.readline()
  6. hasLine = hasf.readline()
  7. list = os.listdir("./CelebA/Img/img_align_celeba")
  8. hasGo = True
  9. noGo = True
  10. for i in range(0, len(list)):
  11. imgName = os.path.basename(list[i])
  12. if (os.path.splitext(imgName)[1] != ".jpg"): continue
  13. noArray = noLine.split()
  14. if (len(noArray) < 1): noGo = False
  15. hasArray = hasLine.split()
  16. if (len(hasArray) < 1): hasGo = False
  17. if (noGo and (imgName == noArray[0])):
  18. oldname= "./CelebA/Img/img_align_celeba/"+imgName
  19. newname="./data/noGlass/"+imgName
  20. shutil.move(oldname, newname)
  21. noLine = nof.readline()
  22. elif (hasGo and (imgName == hasArray[0])):
  23. oldname= "./CelebA/Img/img_align_celeba/"+imgName
  24. newname="./data/hasGlass/"+imgName
  25. shutil.move(oldname, newname)
  26. hasLine = hasf.readline()
  27. print(imgName)
  28. nof.close()
  29. hasf.close()

方形脸部截取

  1. from PIL import Image
  2. import face_recognition
  3. import os
  4. list = os.listdir("./")
  5. for i in range(0, len(list)):
  6. imgName = os.path.basename(list[i])
  7. if (os.path.splitext(imgName)[1] != ".jpg"): continue
  8. image = face_recognition.load_image_file(imgName)
  9. face_locations = face_recognition.face_locations(image)
  10. for face_location in face_locations:
  11. # Print the location of each face in this image
  12. top, right, bottom, left = face_location
  13. # print("A face is located at pixel location Top: {}, Left: {}, Bottom: {}, Right: {}".format(top, left, bottom, right))
  14. # You can access the actual face itself like this:
  15. width = right - left
  16. height = bottom - top
  17. if (width > height):
  18. right -= (width - height)
  19. elif (height > width):
  20. bottom -= (height - width)
  21. face_image = image[top:bottom, left:right]
  22. pil_image = Image.fromarray(face_image)
  23. pil_image.save('face%s'%imgName)

这份代码就是遍历文件夹中的所有图片,用face_recognition库去识别出人脸位置的上下左右坐标,基本识别得出的坐标就已经是方形的了,特殊情况下会有一个像素的误差,所以我强制对比了一次宽高,不一样就改成一样的,对裁剪的影响也不会很大。需注意的是要运行这份代码需要安装face_recognition库和PIL库,如何安装就可以直接搜索教程了。

这里我们就得到了所有高宽相等的人脸二次裁剪图片。

还要注意的一点是这里只保证了每张图片自身高宽相等,图片之间的尺寸并不一定是同样大小的。

参考:

https://blog.csdn.net/Cloudox_/article/details/78432517

关于Celeba人脸数据集的介绍相关推荐

  1. 处理筛选CelebA人脸数据集

    CalebA人脸数据集(官网链接)是香港中文大学的开放数据,包含10,177个名人身份的202,599张人脸图片,并且都做好了特征标记,这对人脸相关的训练是非常好用的数据集. 别看只是一堆人脸,他们很 ...

  2. CelebA人脸数据集

    CeleA是香港中文大学的开放数据,包含10177个名人身份的202599张图片,并且都做好了特征标记,这对人脸相关的训练是非常好用的数据集. 官网链接 网盘链接 别看只是一堆人脸,他们很贴心地做好了 ...

  3. 常见公开人脸数据集的获取和制作自定义人脸数据集

    原文博客:Doi技术团队 链接地址:https://blog.doiduoyi.com/authors/1584446358138 初心:记录优秀的Doi技术团队学习经历 前言 开发人脸识别系统,人脸 ...

  4. 深度学习自学(二十六):人脸数据集

    人脸检测,关键点检测,人脸识别,人脸表情,人脸年龄,人脸姿态等方向的数据集. 01 人脸检测 所谓人脸检测任务,就是要定位出图像中人脸的大概位置. 1.1 Caltech 10000 数据集地址:ht ...

  5. 【总结】最全1.5万字长文解读7大方向人脸数据集v2.0版,搞计算机视觉怎能不懂人脸...

    人脸图像是计算机视觉领域中研究历史最久,也是应用最广泛的图像.从人脸检测.人脸识别.人脸的年龄表情等属性识别,到人脸的三维重建等,都有非常多的数据集被不断整理提出,极大地促进了该领域的发展. 本次,我 ...

  6. 常用公开人脸数据集汇总,持续更新中~~

    转载请注明作者和出处: http://blog.csdn.net/john_bh/ 文章目录 一. 人脸数据汇总表 1.人脸检测 2.人脸关键点检测 3.人脸表情 4.年龄与性别 5.人脸姿态 6.人 ...

  7. 【技术综述】一文道尽“人脸数据集”

    言有三 毕业于中国科学院,计算机视觉方向从业者,有三工作室,有三AI学院等创始人 作者 | 言有三 编辑 | 言有三 今天,给大家送上一份大礼 没错,我就是喜欢写一些"一文道尽" ...

  8. 【技术综述】一文道尽“人脸数据集”(转载)

    这一次我将从人脸检测,关键点检测,人脸识别,人脸表情,人脸年龄,人脸姿态等几个方向整理出人脸领域有用的数据集清单,不全也有9成全吧. 01 人脸检测 所谓人脸检测任务,就是要定位出图像中人脸的大概位置 ...

  9. 【技术综述】最全人脸数据集收录

    文章首发与微信公众号<有三AI> [技术综述]一文道尽"人脸数据集" 今天,给大家送上一份大礼 没错,我就是喜欢写一些"一文道尽" 这一次我将从人脸 ...

最新文章

  1. android中仿qq最新版抽屉,Android实现3种侧滑效果(仿qq侧滑、抽屉侧滑、普通侧滑)...
  2. 交换网络安全防范系列五之802.1x-基于端口的网络访问控制技术
  3. UVA 10154 Weights and Measures
  4. 玩转SSRS第六篇---客户端报表进阶
  5. 【渝粤教育】电大中专电子商务网站建设与维护 (8)作业 题库
  6. activeMQ的源码分析 -TCP通讯机制
  7. Leetcode每日一题:1370.increasing-decreasing-string(上升下降字符串)
  8. MySql字符串拼接
  9. RFC8998+BabaSSL---让国密驶向更远的星辰大海
  10. python堆积图的画法_不再羡慕别人的漂亮图表,一文学会如何用Python绘制堆积图...
  11. Graphics2D图片合成
  12. 精美卡通儿童教育班会课件PPT模板
  13. 舞伴配对问题(顺序队列)
  14. 创翼NetKeeper校园网连接时出现118错误
  15. Flume之生产正确的使用方式一(Singel Agent)
  16. linux与hadoop常用命令梳理
  17. 微信小程序(组件开发)
  18. 算法导论——A*算法易懂的证明
  19. 清华教授极力推荐的三本入门学习Python书籍
  20. 现在机器人是用什么语言编程

热门文章

  1. Web Components 学习笔记一: Web Components是什么?解决了什么问题?
  2. 有道再出发:真正的教育事业没有终点
  3. 计算机专业u盘买什么,制作u盘系统选什么模式呢?
  4. elixir 读取 marc条目 目次区字段信
  5. 闪存芯片NAND FLASH的封装
  6. 利用 OpenWrt 共享局域网下的佳能 MG2580s/MX398打印扫描一体机
  7. 计算机网络自顶向下学习摘要
  8. 求生之路2 服务器显示人满,求生之路2服务器怎么设置人数
  9. custom的短语_custom的用法总结大全
  10. 书单推荐 | web前端好书推荐(一)