[发明专利]一种微表情识别机器人及其控制方法在审
申请号: | 202010399822.7 | 申请日: | 2020-05-13 |
公开(公告)号: | CN111553311A | 公开(公告)日: | 2020-08-18 |
发明(设计)人: | 田佳;王彬;方健;李炜;张光娜 | 申请(专利权)人: | 吉林工程技术师范学院 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G16H20/70;G16H50/20 |
代理公司: | 北京远大卓悦知识产权代理事务所(普通合伙) 11369 | 代理人: | 许小东 |
地址: | 130000 *** | 国省代码: | 吉林;22 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 表情 识别 机器人 及其 控制 方法 | ||
1.一种微表情识别机器人,其特征在于,包括:
表情采集器,其采集并确定被测人员的表情图像;
微表情识别器,其与所述表情采集器连接,用于根据所述实时应激表情信息与所述被测人员的表情数据,识别所述被测人员的五官基线数据;
微表情分析器,其与所述微表情识别器连接,并对所述被测人员的五官基线数据进行分类获得微表情识别结果。
2.根据权利要求1所述的微表情识别机器人,其特征在于,所述五官基线数据包括:眼球转动基线数据、眉毛活动基线数据和嘴角活动基线数据。
3.根据权利要求2所述的微表情识别机器人,其特征在于,所述眼球转动的基线数据包括眼球转动的基线方向和基线频率。
4.根据权利要求2所述的微表情识别机器人,其特征在于,所述嘴角活动基线数据包括:嘴角上扬角度和嘴角开合大小数据。
5.一种微表情识别方法,其特征在于,包括:采集被测人员的的五官基线数据,并基于BP神经网络识别出被测人员的微表情,具体包括如下步骤:
步骤一、按照检测周期,测量被测人员的眼球转动基线数据、眉毛活动基线数据和嘴角活动基线数据;
步骤二、确定三层BP神经网络的输入层神经元向量{x1,x2,x3,x4,x5,x6};其中,x1为眼球转动的基线方向,x2为眼球转动的基线频率,x3为嘴角上扬角度,x4为被测人员嘴角开合大小,x5为眉毛活动基线方向,x6为眉毛活动基线频率;
步骤三、所述输入层向量映射到隐层,隐层的神经元为m个;
步骤四、得到输出层神经元向量o={o1,o2,o3};其中,o1为眼球状态值,o2为嘴角状态值,o3为眉毛状态值。
6.根据权利要求5所述的微表情识别方法,其特征在于,还包括:对眼球状态值、嘴角状态值和眉毛状态值进行归一化,获得被测人员的眼球状态系数、嘴角状态系数和眉毛状态系数;
其中,为被测人员第j项的状态系数,oj分别为输出参数:,j=1,2,3;ojmax和ojmin分别为相应输出参数中的设定的最大值和最小值。
7.根据权利要求6所述的微表情识别方法,其特征在于,还包括获得被测人员的的微表情综合评价概率:
其中,P为被测人员的的微表情综合评价概率,P0为使测人员的的微表情综合评价标准值,e为自然对数的底数,为校正系数,为使被测人员的眼球状态系数,为眼球状态系数阈值,为嘴角状态系数,为嘴角状态系数阈值,为眉毛状态系数,为最眉毛状态系数阈值。
8.根据权利要求7所述的微表情识别方法,其特征在于,还包括微表情匹配识别过程,包括:
当P≥90时,判定被测人员微表情为高兴;
当85≤P<90时,判定被测人员微表情为惊讶;
当75≤P<85时,判定被测人员微表情为悲伤;
当65≤P<75时,判定被测人员微表情为恐惧;
当55≤P<65时,判定被测人员微表情为愤怒;
当45≤P<55时,判定被测人员微表情为厌恶。
9.根据权利要求5-8中任意一项所述的微表情识别方法,其特征在于,所述隐层的神经元为5个;所述隐层及所述输出层的激励函数均采用S型函数fj(x)=1/(1+e-x)。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于吉林工程技术师范学院,未经吉林工程技术师范学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010399822.7/1.html,转载请声明来源钻瓜专利网。