[发明专利]样本筛选及表情识别方法、神经网络、设备及存储介质有效
申请号: | 201910690684.5 | 申请日: | 2019-07-29 |
公开(公告)号: | CN110532880B | 公开(公告)日: | 2022-11-22 |
发明(设计)人: | 解为成;田怡;沈琳琳 | 申请(专利权)人: | 深圳大学 |
主分类号: | G06V40/16 | 分类号: | G06V40/16;G06V10/774;G06N3/08 |
代理公司: | 深圳青年人专利商标代理有限公司 44350 | 代理人: | 吴桂华 |
地址: | 518060 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 样本 筛选 表情 识别 方法 神经网络 设备 存储 介质 | ||
本发明适用计算机技术领域,提供了一种样本筛选及表情识别方法、神经网络、设备及存储介质,其中,利用多元组样本,进行神经网络的训练,在每一迭代步,确定锚样本与正样本之间的第一样本距离以及锚样本与负样本之间的第二样本距离,根据样本距离的分布统计特性,构建用于对多元组样本进行筛选的边界条件,利用该边界条件对多元组样本进行筛选,筛选所得保留结果进入下一迭代步的训练,这样,可在神经网络的训练过程中,对异常多元组样本进行筛除,避免了异常多元组样本对神经网络训练结果的影响,从而提高了表情分类识别准确度。
技术领域
本发明属于计算机技术领域,尤其涉及一种样本筛选及表情识别方法、神经网络、设备及存储介质。
背景技术
随着人机交互的发展,面部表情识别已经成为近几十年来热门课题。如今,深度学习神经网络采用复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象,并应用于端对端的图像识别与分析。基于深度学习的表情识别已经在各种表情数据库上超越了传统方法,并且通过各种网络设计以及数据增强、度量学习与网络复合等算法对训练特征进行有效性提升以改善其泛化识别能力。
在基于深度学习的面部表情识别算法中,三元组损失函数是深度学习中的一种损失函数,用于训练差异性较小的样本。其训练数据包括锚(Anchor)样本、正(Positive)样本、负(Negative)样本。该损失函数通过学习使锚样本与正样本之间的距离小于锚样本与负样本之间的距离,实现样本的相似性计算。但是,传统的利用三元组损失函数所训练得到的神经网络,通常会受到异常三元组样本的影响,这些异常三元组样本表现为:在不同的表情标签(分类)下有相似的表情,或者相同表情标签下表情差距很大,如果神经网络学习了这些异常三元组样本,会在一定程度上影响神经网络的训练结果,从而使得表情分类识别准确度得不到提高。
发明内容
本发明的目的在于提供一种样本筛选及表情识别方法、神经网络、设备及存储介质,旨在解决现有技术所存在的、表情识别准确度无法得到有效提高的问题。
一方面,本发明提供了一种样本筛选方法,包括:
获得多元组样本,所述多元组样本包括:锚样本、正样本及负样本;
利用所述多元组样本,进行神经网络的训练,在训练的每一迭代步,利用所述神经网络对多元组样本进行处理,得到所述锚样本的第一特征表达向量、所述正样本的第二特征表达向量及所述负样本的第二特征表达向量;根据所述第一特征表达向量及所述第二特征表达向量确定所述锚样本与所述正样本之间的第一样本距离,根据所述第一特征表达向量与所述第三特征表达向量确定所述锚样本与所述负样本之间的第二样本距离;根据所述第一样本距离与所述第二样本距离的分布统计特性,构建用于对所述多元组样本进行筛选的边界条件;利用所述边界条件对所述多元组样本进行筛选,筛选所得保留结果进入下一迭代步的训练。
进一步的,所述第一样本距离与所述第二样本距离为随机样本距离并且服从正态分布,根据所述第一样本距离与所述第二样本距离的分布统计特性,构建用于对所述多元组样本进行筛选的边界条件,具体包括:
利用所述多元组样本在所述神经网络中全连接层的模,以及所述多元组样本在所述全连接层的特征维度,确定正态分布的均值和标准方差;
利用所述均值、所述标准方差、所述正样本对应的第一显著性水平以及所述负样本对应的第二显著性水平,构建用于筛选所述正样本的第一子边界条件以及用于筛选所述负样本的第二子边界条件。
进一步的,所述神经网络利用基于所述第一样本距离、所述第二样本距离以及损失函数参数所构建的多元组损失函数。
进一步的,所述多元组损失函数为三元组损失函数或四元组损失函数。
另一方面,本发明提供了一种表情识别方法,包括:利用如上述的样本筛选方法训练所得的所述神经网络,对待识别图像进行处理,得到表情识别结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳大学,未经深圳大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910690684.5/2.html,转载请声明来源钻瓜专利网。