[发明专利]一种基于改进VGG网络模型的人脸表情识别方法在审
申请号: | 202110934685.7 | 申请日: | 2021-08-16 |
公开(公告)号: | CN113642467A | 公开(公告)日: | 2021-11-12 |
发明(设计)人: | 高莉;肖雅萍;李真 | 申请(专利权)人: | 江苏师范大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04;G06N3/08;G16H50/20 |
代理公司: | 南京瑞弘专利商标事务所(普通合伙) 32249 | 代理人: | 李悦声 |
地址: | 221000 江苏省徐州*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 改进 vgg 网络 模型 表情 识别 方法 | ||
1.一种基于改进VGG网络模型的人脸表情识别方法,其特征在于步骤如下:
步骤一、对采集到的人脸表情图像进行灰度化处理;
步骤二、对灰度化处理后的人脸表情图像规则化分类处理;
步骤三、构建用以获取训练人脸表情图像的特征参数值以及模型权重的改进VGG网络模型,从而获得各人脸表情的属性特征,所述改进型VGG网络模型利用二步长的卷积加Relu函数替代常规VGG网络模型中的池化层,用GAP层替代常规VGG网络模型全连接层;
步骤四、使用规则化表情图像集训练改进VGG网络模型,最后使用训练好的改进VGG网络模型权重以及求取的属性特征进行人脸表情的识别工作。
2.根据权利要求1所述的基于改进VGG网络模型的人脸表情识别方法,其特征在于对灰度化处理后的人脸表情图像规则化分类处理具体步骤如下:
a1人脸表情图像分类和标签化处理,从而规范各表情图像的定位提高网络训练的准确度:人脸表情图像的正确分类与定位是实现识别准确的基础,因此数据集的样本容量、表情分类、标签定位准确度、数据集的划分等诸多因素都被纳入考虑范畴;人脸表情数据集被划分为开心、惊讶、愤怒、中性、伤心、厌恶、恐惧7类表情,7类表情所对应的标签为0到6;
a2人脸检测和裁剪:人脸表情图像分类和标签化处理后的表情图形需要利用cv2进行人脸表情的检测,系统会框选出检测到的人脸部分并进行裁剪,从而去除部分背景干扰问题,提高识别准确率。
a3图像归一化操作,用以保证不同类型表情图像能被识别,实现表情识别的初步处理,提高了信噪比,最终获得规则化的人脸表情图像集。
3.根据权利要求1所述的基于改进VGG网络模型的人脸表情识别方法,其特征在于获得各人脸表情的属性特征模型:改进VGG网络模型包括7层级的网络结构,利用改进VGG网络模型能够获得训练的特征参数值以及模型权重,从而获取各人脸表情的属性特征;之后利用两步长的卷积操作替代网络原有VGG网络的池化层,同时使用Relu激活函数实现更好的非线性效果;网络中利用GAP取代原有VGG网络中的三层FC,从而克服VGG网络模型在训练与验证过程中损失值大幅度波动的问题。
4.根据权利要求3所述的基于改进VGG网络模型的人脸表情识别方法,其特征在于所述改进VGG网络模型的7层级网络结构具体包括input层、block1层、block2层、block3层、GAP层、softmax层和output层,其中:block1层包括含64个核的conv1-1层、含64个核的conv1-2层;block2层包括含128个核的conv2-1层、含128个核的卷积层的conv2-1层;block3层包括含256个核的conv3-1、含256个核的conv3-2层,其中:
input层:用以将输入的人脸面部表情图像转化为数据矩阵输入;
含64个核的conv1-1层:用以对人脸表情图像进行粗略的特征提取操作;
含64个核的conv1-2层:类似于传统的池化层,用以压缩人脸表情图像特征参数以及降低维度的效果;
含128个核的卷积层的conv2-1层:用以进行较一层卷积稍细的二层特征提取,在conv1-2层的基础上提取更多的特征值;
含128个核的卷积层的conv2-2层:用以替代原始VGG模型中的池化层,对人脸表情图像进行特征参数压缩的操作;
含256个核的conv3-1层:用以对特征参数压缩后的人脸表情图像进行细致的特征参数处理;
含256个核的conv3-2层:结构为传统的池化层,用以再次压缩人脸表情图像特征参数以及降低维度的效果,用以减少人脸表情图像以外的信息;
GAP层:用以实现对网络的像素图像分类操作并能解决原有全连接层参数爆炸问题降低过度拟合概率;
softmax层:用以筛选出概率最大的表情类别;
output层:用以输出判定的表情类别结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于江苏师范大学,未经江苏师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110934685.7/1.html,转载请声明来源钻瓜专利网。