[发明专利]一种基于ELMAN神经网络的用户体验评价方法及系统在审
申请号: | 201910178660.1 | 申请日: | 2019-03-11 |
公开(公告)号: | CN109934156A | 公开(公告)日: | 2019-06-25 |
发明(设计)人: | 李太福;廖志强;尹蝶;段棠少;张志亮;黄星耀 | 申请(专利权)人: | 重庆科技学院 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04;G06Q30/02 |
代理公司: | 重庆蕴博君晟知识产权代理事务所(普通合伙) 50223 | 代理人: | 王玉芝 |
地址: | 401331 重*** | 国省代码: | 重庆;50 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 用户体验 神经网络 系列照片 云端 手机 视频 复杂非线性关系 读取 人脸识别技术 用户体验数据 随时间变化 代码向量 人脸表情 视频分解 视频文件 现场拍摄 自动获得 云平台 研发 录入 表情 传输 升级 应用 优化 开发 | ||
1.一种基于ELMAN神经网络的用户体验评价方法,其特征在于,包括以下步骤
S1:采集用户使用测试APP的第一过程视频,依据所述第一过程视频得到第一过程系列照片,对所述第一过程系列照片进行人脸识别得到用户人脸表情向量,依据所述用户人脸表情向量得到输入矩阵;
S2:通过测试APP采集用户调查数据,依据所述用户调查数据得到结果矩阵Y,构建ELMAN模型,采用所述输入矩阵和所述结果矩阵对ELMAN模型进行训练;
S3:采集用户使用目标APP的第二过程视频,采用训练完成的ELMAN模型对所述用户使用目标APP的第二过程视频进行分析并获取用户体验数据。
2.如权利要求1所述的一种基于ELMAN神经网络的用户体验评价方法,其特征在于,所述步骤S1包括,
S11:以横坐标为时间,纵坐标为表情类型代码生成用户人脸表情向量随时间变化的二维表情谱,其中,“愤怒”对应的表情向量为[0,0,0,0,0,0,1]T、“厌恶”对应的表情向量为[0,0,0,0,0,2,0]T、“恐惧”对应的表情向量为[0,0,0,0,3,0,0]T、“高兴”对应的表情向量为[0,0,0,4,0,0,0]T、“伤心”对应的表情向量为[0,0,5,0,0,0,0]T、“惊讶”对应的表情向量为[0,6,0,0,0,0,0]T、“无情绪”对应的表情向量为[7,0,0,0,0,0,0]T,采用表情谱得到矩阵A=[e1,e2,e3,…,en]7×n;
S12:将矩阵A进行转置变换得到AT=[e1,e2,e3,…,en]n×7;
S13:构造矩阵M=A·AT;
S14:计算矩阵M的特征值,生成矩阵M的特征值矩阵λ=[λ1,λ2,λ3,…,λ7]1×7;
S15:生成输入矩阵X=[λ,N,B]1×9,其中N为年龄,B为性别。
3.如权利要求2所述的一种基于ELMAN神经网络的用户体验评价方法,其特征在于,步骤S2中,设置Xk=[xk1,xk2,…,xkM](k=1,2,…,S)为输入矢量,S为训练样本个数,WMI(g)为第g次迭代时输入层M与隐层I之间的权值矢量,WJP(g)为第g次迭代时隐层J与输出层P之间的权值矢量,WJC(g)为第g次迭代时隐层J与承接层C之间的权值矢量,Yk(g)=[yk1(g),yk2(g),…,ykP(g)](k=1,2,…,S)为第g次迭代时网络的实际输出,dk=[dk1,dk2,…,dkP](k=1,2,…,S)为期望输出。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于重庆科技学院,未经重庆科技学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910178660.1/1.html,转载请声明来源钻瓜专利网。