目录

  • 一、项目背景
  • 二、数据预处理
    • 1、标签与特征分离
    • 2、数据可视化
    • 3、分割训练集和测试集
  • 三、搭建模型
  • 四、训练模型
  • 五、训练结果
  • 附录

一、项目背景

基于深度学习的面部表情识别
(Facial-expression Recognition)

数据集cnn_train.csv包含人类面部表情的图片的label和feature。
在这里,面部表情识别相当于一个分类问题,共有7个类别。
其中label包括7种类型表情:

一共有28709个label,即包含28709张表情包。
每一行就是一张表情包4848=2304个像素,相当于4848个灰度值(intensity)(0为黑, 255为白)
本项目同时支持GPU与CPU上运行。

二、数据预处理

1、标签与特征分离

对原数据进行处理,分离后分别保存为cnn_label.csv和cnn_data.csv

# cnn_feature_label.py
# ###一、将原始数据的label和feature(像素)数据分离
import pandas as pd# 源数据路径
path = '../datasets/originalData/cnn_train.csv'
# 读取数据
df = pd.read_csv(path)
# 提取feature(像素)数据 和 label数据
df_x = df[['feature']]
df_y = df[['label']]
# 将feature和label数据分别写入两个数据集
df_x.to_csv('../datasets/cnn_data.csv', index=False, header=False)
df_y.to_csv('../datasets/cnn_label.csv', index=False, header=False)

2、数据可视化

对特征进一步处理,也就是将每个数据行的2304个像素值合成每张48*48的表情图,最后做成24000张表情包。

# face_view.py
# ###二、数据可视化,将每个数据行的2304个像素值合成每张48*48的表情图。
import cv2
import numpy as np# 放图片的路径
path = '../images'
# 读取像素数据
data = np.loadtxt('../datasets/cnn_data.csv')# 按行取数据并写图
for i in range(data.shape[0]):face_array = data[i, :].reshape((48, 48))  # reshapecv2.imwrite(path + '//' + '{}.jpg'.format(i), face_array)  # 写图片

3、分割训练集和测试集

Step1:划分一下训练集和验证集。一共有28709张图片,我取前24000张图片作为训练集,其他图片作为验证集。新建文件夹cnn_train和cnn_val,将0.jpg到23999.jpg放进文件夹cnn_train,将其他图片放进文件夹cnn_val.

# cnn_picture_label.py
# ###三、表情图片和类别标注,
# 1.取前24000张图片作为训练集放入cnn_train,其他图片作为验证集放入cnn_val
# 2.对每张图片标记属于哪一个类别,存放在dataset.csv中,分别在刚刚训练集和测试集执行标记任务。# #因为cpu训练太慢,我只取前2000张做训练,400张做测试!!,手动删除两个文件夹重dataset.csv的多余行数据
import os
import pandas as pddef data_label(path):# 读取label文件df_label = pd.read_csv('../datasets/cnn_label.csv', header=None)# 查看该文件夹下所有文件files_dir = os.listdir(path)# 存放文件名和标签的列表path_list = []label_list = []# 遍历所有文件,取出文件名和对应的标签分别放入path_list和label_list列表for file_dir in files_dir:if os.path.splitext(file_dir)[1] == '.jpg':path_list.append(file_dir)index = int(os.path.splitext(file_dir)[0])label_list.append(df_label.iat[index, 0])# 将两个列表写进dataset.csv文件path_s = pd.Series(path_list)label_s = pd.Series(label_list)df = pd.DataFrame()df['path'] = path_sdf['label'] = label_sdf.to_csv(path + '\\dataset.csv', index=False, header=False)def main():# 指定文件夹路径train_path = '../datasets/cnn_train'val_path = '../datasets/cnn_val'data_label(train_path)data_label(val_path)if __name__ == '__main__':main()

Step2:对每张图片标记属于哪一个类别,存放在dataset.csv中,分别在刚刚训练集和测试集执行标记任务。

Step3:重写Dataset类,它是Pytorch中图像数据集加载的一个基类,需要重写类来实现加载上面的图像数据集

# rewrite_dataset.py
# ###四、重写类来实现加载上面的图像数据集。
import bisect
import warningsimport cv2
import numpy as np
import pandas as pd
import torch
import torch.utils.data as dataclass FaceDataset(data.Dataset):# 初始化def __init__(self, root):super(FaceDataset, self).__init__()self.root = rootdf_path = pd.read_csv(root + '\\dataset.csv', header=None, usecols=[0])df_label = pd.read_csv(root + '\\dataset.csv', header=None, usecols=[1])self.path = np.array(df_path)[:, 0]self.label = np.array(df_label)[:, 0]# 读取某幅图片,item为索引号def __getitem__(self, item):# 图像数据用于训练,需为tensor类型,label用numpy或list均可face = cv2.imread(self.root + '\\' + self.path[item])# 读取单通道灰度图face_gray = cv2.cvtColor(face, cv2.COLOR_BGR2GRAY)# 直方图均衡化face_hist = cv2.equalizeHist(face_gray)"""像素值标准化读出的数据是48X48的,而后续卷积神经网络中nn.Conv2d() API所接受的数据格式是(batch_size, channel, width, height),本次图片通道为1,因此我们要将48X48 reshape为1X48X48。"""face_normalized = face_hist.reshape(1, 48, 48) / 255.0face_tensor = torch.from_numpy(face_normalized)face_tensor = face_tensor.type('torch.FloatTensor')# face_tensor = face_tensor.type('torch.cuda.FloatTensor')label = self.label[item]return face_tensor, label# 获取数据集样本个数def __len__(self):return self.path.shape[0]

三、搭建模型

卷积神经网络模型如下:

# CNN_face.py
# 定义一个CNN模型
"""
inputs(48*48*1) ->
conv(24*24*64) -> conv(12*12*128) -> conv(6*6*256) ->
Dropout -> fc(4096) -> Dropout -> fc(1024) ->
outputs(7)
"""import torch.nn as nn# 参数初始化
def gaussian_weights_init(m):classname = m.__class__.__name__# 字符串查找find,找不到返回-1,不等-1即字符串中含有该字符if classname.find('Conv') != -1:m.weight.data.normal_(0.0, 0.04)class FaceCNN(nn.Module):# 初始化网络结构def __init__(self):super(FaceCNN, self).__init__()# layer1(conv + relu + pool)# input:(bitch_size, 1, 48, 48), output(bitch_size, 64, 24, 24)self.conv1 = nn.Sequential(nn.Conv2d(1, 64, 3, 1, 1),nn.BatchNorm2d(num_features=64),nn.RReLU(inplace=True),nn.MaxPool2d(kernel_size=2, stride=2))# layer2(conv + relu + pool)# input:(bitch_size, 64, 24, 24), output(bitch_size, 128, 12, 12)self.conv2 = nn.Sequential(nn.Conv2d(64, 128, 3, 1, 1),nn.BatchNorm2d(num_features=128),nn.RReLU(inplace=True),nn.MaxPool2d(kernel_size=2, stride=2))# layer3(conv + relu + pool)# input: (bitch_size, 128, 12, 12), output: (bitch_size, 256, 6, 6)self.conv3 = nn.Sequential(nn.Conv2d(128, 256, 3, 1, 1),nn.BatchNorm2d(num_features=256),nn.RReLU(inplace=True),nn.MaxPool2d(kernel_size=2, stride=2))# 参数初始化self.conv1.apply(gaussian_weights_init)self.conv2.apply(gaussian_weights_init)self.conv3.apply(gaussian_weights_init)# 全连接层self.fc = nn.Sequential(nn.Dropout(p=0.2),nn.Linear(256*6*6, 4096),nn.RReLU(inplace=True),nn.Dropout(p=0.5),nn.Linear(4096, 1024),nn.RReLU(inplace=True),nn.Linear(1024, 256),nn.RReLU(inplace=True),nn.Linear(256, 7))# 向前传播def forward(self, x):x = self.conv1(x)x = self.conv2(x)x = self.conv3(x)x = x.view(x.shape[0], -1)  # 数据扁平化y = self.fc(x)return y

四、训练模型

损失函数使用交叉熵,优化器是随机梯度下降SGD,其中weight_decay为正则项系数,每轮训练打印损失值,每10轮训练打印准确率。

# train.py
# 定义训练轮
import torch
import torch.utils.data as data
import torch.nn as nn
import numpy as np
from torch import optimfrom models import CNN_face
from dataloader import rewrite_datasetdef train(train_dataset, val_dataset, batch_size, epochs, learning_rate, wt_decay, print_cost=True, isPlot=True):device = torch.device("cuda" if torch.cuda.is_available() else "cpu")# 加载数据集并分割batchtrain_loader = data.DataLoader(train_dataset, batch_size)# 构建模型model = CNN_face.FaceCNN()model.to(device)# 损失函数和优化器compute_loss = nn.CrossEntropyLoss()optimizer = optim.SGD(model.parameters(), lr=learning_rate, weight_decay=wt_decay)# 学习率衰减# scheduler = optim.lr_scheduler.StepLR(optimizer, step_size=10, gamma=0.8)for epoch in range(epochs):loss = 0model.train()for images, labels in train_loader:optimizer.zero_grad()outputs = model.forward(images)loss = compute_loss(outputs, labels)loss.backward()optimizer.step()# 打印损失值if print_cost:print('epoch{}: train_loss:'.format(epoch + 1), loss.item())# 评估模型准确率if epoch % 10 == 9:model.eval()acc_train = validate(model, train_dataset, batch_size)acc_val = validate(model, val_dataset, batch_size)print('acc_train: %.1f %%' % (acc_train * 100))print('acc_val: %.1f %%' % (acc_val * 100))return model# 验证模型在验证集上的正确率
def validate(model, dataset, batch_size):val_loader = data.DataLoader(dataset, batch_size)result, total = 0.0, 0for images, labels in val_loader:pred = model.forward(images)pred_tmp = pred.cuda().data.cpu().numpy()pred = np.argmax(pred_tmp.data.numpy(), axis=1)labels = labels.data.numpy()result += np.sum((pred == labels))total += len(images)acc = result / totalreturn accdef main():train_dataset = rewrite_dataset.FaceDataset(root=r'D:\01 Desktop\JUST_YAN\05 DeepLearning\Facial-expression_Reg\datasets\cnn_train')val_dataset = rewrite_dataset.FaceDataset(root=r'D:\01 Desktop\JUST_YAN\05 DeepLearning\Facial-expression_Reg\datasets\cnn_val')model = train(train_dataset, val_dataset, batch_size=128, epochs=100, learning_rate=0.01,wt_decay=0, print_cost=True, isPlot=True)torch.save(model, 'model_net.pkl')  # 保存模型if __name__ == '__main__':main()

五、训练结果

在超参数为:batch_size=128, epochs=100, learning_rate=0.01, wt_decay=0,的情况下跑得最终结果如下:

附录

代码已托管到GitHub和Gitee:
GitHub:https://github.com/HaoliangZhou/FERNet
Gitee: https://gitee.com/zhou-zhou123c/FERNet
参考资料:
https://blog.csdn.net/Charzous/article/details/107452464/
数据集
数据集cnn_train.csv

Pytorch实现基于深度学习的面部表情识别(最新,非常详细)相关推荐

  1. 基于深度学习的口罩识别与检测PyTorch实现

    基于深度学习的口罩识别与检测PyTorch实现 1. 设计思路 1.1 两阶段检测器:先检测人脸,然后将人脸进行分类,戴口罩与不戴口罩. 1.2 一阶段检测器:直接训练口罩检测器,训练样本为人脸的标注 ...

  2. 基于深度学习的车型识别系统(Python+清新界面+数据集)

    摘要:基于深度学习的车型识别系统用于识别不同类型的车辆,应用YOLO V5算法根据不同尺寸大小区分和检测车辆,并统计各类型数量以辅助智能交通管理.本文详细介绍车型识别系统,在介绍算法原理的同时,给出P ...

  3. 基于深度学习的脑电图识别 综述篇(三)模型分析

    作者|Memory逆光 本文由作者授权分享 导读 脑电图(EEG)是一个复杂的信号,一个医生可能需要几年的训练并利用先进的信号处理和特征提取方法,才能正确解释其含义.而如今机器学习和深度学习的发展,大 ...

  4. 基于深度学习的脑电图识别 综述篇(二)数据采样及处理

    作者|Memory逆光 本文由作者授权分享 导读 脑电图(EEG)是一个复杂的信号,一个医生可能需要几年的训练并利用先进的信号处理和特征提取方法,才能正确解释其含义.而如今机器学习和深度学习的发展,大 ...

  5. python dlib caffe人脸相似度_基于深度学习的人脸识别系统(Caffe+OpenCV+Dlib)【一】如何配置caffe属性表...

    前言 基于深度学习的人脸识别系统,一共用到了5个开源库:OpenCV(计算机视觉库).Caffe(深度学习库).Dlib(机器学习库).libfacedetection(人脸检测库).cudnn(gp ...

  6. 开发基于深度学习的人脸识别【考勤/签到】系统

    开发基于深度学习的人脸识别[考勤/签到]系统 人脸识别介绍 平台环境需求 技术点 系统流程 细节设计 人脸检测 人脸关键点定位 人脸特征提取 模型的训练 模型的部署 MySQL数据库的使用 MFC工程 ...

  7. 基于深度学习的人脸识别系统(Caffe+OpenCV+Dlib)【三】VGG网络进行特征提取

    前言 基于深度学习的人脸识别系统,一共用到了5个开源库:OpenCV(计算机视觉库).Caffe(深度学习库).Dlib(机器学习库).libfacedetection(人脸检测库).cudnn(gp ...

  8. 中国人工智能学会通讯——基于视频的行为识别技术 1.5 基于深度学习的视频识别方法...

    1.5 基于深度学习的视频识别方法 下面介绍面向视频分类的深度学习方 法.深度卷积神经网络在图像分类取得 成功后,研究人员就希望把它推广到视 频分类中.但这不是一件很容易的事, 一个原因是缺乏足够的训 ...

  9. 基于深度学习的人脸识别系统系列(Caffe+OpenCV+Dlib)——【六】设计人脸识别的识别类...

    前言 基于深度学习的人脸识别系统,一共用到了5个开源库:OpenCV(计算机视觉库).Caffe(深度学习库).Dlib(机器学习库).libfacedetection(人脸检测库).cudnn(gp ...

最新文章

  1. iOS 的组件化开发
  2. 笔记-项目人力资源管理
  3. 深度学习练手项目(二)-----利用PyTorch进行线性回归
  4. Cobub无码埋点关键技术的实现
  5. Grunt上手指南(转)
  6. linux不允许将硬链接指向目录,为什么 UNIX/Linux 不允许目录硬链 【翻译】
  7. (转)曹锋、宋天玮:区块链技术在证券市场中的应用探索
  8. [收藏】正确使用SqlConnection对象,兼谈数据库连接池
  9. 最新仿金蝶电商ERP进销存系统软件源码 销售库存仓库财务管理收银系统网络版
  10. 最新Vue2.0+组件开源项目库集合
  11. word排版的时候如何将论文表格逆时针旋转90度竖放
  12. 【数据结构基础_有[*pHead]和[*pEnd]的单向链表_(C++实现)】
  13. oracle错误信息提示中英文显示切换
  14. java有理数类的封装_【Java笔记】有理数的类封装
  15. 从零开始学WEB前端——JavaScript数据类型
  16. jdbc连接MysQL数据库时报错:The server time zone value ‘ ‘ is unrecognized or represents more than
  17. 2017.07.31软件更新公告
  18. 微信企业号开发—通讯录
  19. 音标课件软件测试,软件测试常用单词-字体又大又音标的哦!.doc
  20. NET MD问题!那些线控支持汉字显示啊,我的是SONY N910可以吗? 谢啦!!!

热门文章

  1. origin ‘http://localhost:8080‘ has been blocked by CORS policy: Request header field platform is not
  2. spring mvc 双亲上下文问题
  3. perl安装不全导致的Can't locate Time/HiRes.pm in @INC错误的处理方法
  4. 天池竞赛入门实战——快来一起挖掘幸福感!
  5. 808 Lab虚拟插件:Sample Science 808 Lab for Mac
  6. 【檀越剑指大厂--ElasticSearch】ElasticSearch进阶
  7. 再招一万人,太猛了。。。
  8. scp命令上传文件到服务器
  9. RS485通信----基本原理+电路图
  10. 遗传算法解决城市TSP问题