[发明专利]一种人机交互方法与终端、计算机可读存储介质有效
申请号: | 202010017735.0 | 申请日: | 2020-01-08 |
公开(公告)号: | CN111833907B | 公开(公告)日: | 2023-07-18 |
发明(设计)人: | 孙建伟;赵帅江 | 申请(专利权)人: | 北京嘀嘀无限科技发展有限公司 |
主分类号: | G10L25/63 | 分类号: | G10L25/63;G10L15/22;G10L15/16;G10L15/06;G10L25/30 |
代理公司: | 北京同立钧成知识产权代理有限公司 11205 | 代理人: | 张子青;刘芳 |
地址: | 100193 北京*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 人机交互 方法 终端 计算机 可读 存储 介质 | ||
1.一种人机交互方法,其特征在于,包括:
采集当前的语音数据;
识别所述语音数据的第一情感;所述第一情感由文本情感识别结果获得;
确定所述第一情感状态对应的第二情感;
输出针对所述语音数据的响应语音,所述响应语音具备所述第二情感;
所述识别所述语音数据的第一情感,包括:
将所述语音数据转换为文本数据;
识别所述文本数据中的情感关联词,所述情感关联词包括语气词与程度词中的一种或多种;
若所述情感关联词包括语气词和程度词,为各所述情感关联词预设情感分值;
将所述文本数据中的所有情感关联词的情感分值进行加权处理,并将加权分值作为所述文本数据的情感解析结果;
根据情感解析结果,确定所述第一情感。
2.一种人机交互的方法,其特征在于,包括:
采集当前的语音数据;
识别所述语音数据的第一情感;所述第一情感由文本情感识别结果和语音情感识别结果获得;
确定所述第一情感状态对应的第二情感;
输出针对所述语音数据的响应语音,所述响应语音具备所述第二情感;
所述识别所述语音数据的第一情感,包括:
提取所述语音数据的语音特征;
利用训练好的情感分类器处理所述语音特征,得到情感识别结果;
将所述语音数据转换为文本数据;
识别所述文本数据中的情感关联词,所述情感关联词包括语气词与程度词中的一种或多种;
若所述情感关联词包括语气词和程度词,为各所述情感关联词预设情感分值;
将所述文本数据中的所有情感关联词的情感分值进行加权处理,并将加权分值作为所述文本数据的情感解析结果;;
根据所述情感识别结果与所述情感解析结果,确定所述第一情感。
3.根据权利要求2所述的方法,其特征在于,所述情感分类器由多层卷积神经网络CNN与多层全连接网络构成;或者,
所述情感分类器由多层CNN残差网络与多层全连接网络构成。
4.根据权利要求2所述的方法,其特征在于,所述情感识别结果为所述语音数据在各情感中的概率,所述情感识别结果所指示的情感为所述概率最高的一种情感;
或者,
所述情感识别结果所指示的情感,为具备指示标识的一种情感;
或者,
所述情感识别结果为所述语音数据在各情感中的分值,所述情感识别结果所指示的情感,为所述分值落在的分数区间对应的一种情感。
5.根据权利要求2所述的方法,其特征在于,所述提取所述语音数据的语音特征,包括:
提取所述语音数据的音频特征,所述音频特征包括:基频特征、短时能量特征、短时赋值特征、短时过零率特征中的一种或多种;
对所述音频特征进行归一化处理,并组成特征向量,得到所述语音数据的所述语音特征。
6.根据权利要求2所述的方法,其特征在于,所述方法还包括:
获取样本数据,所述样本数据包括:语音样本与文本样本中的一种或多种;
获取所述样本数据对应的情感标签;
利用所述样本数据与所述情感标签,对预设的基础分类器进行训练,得到所述情感分类器。
7.根据权利要求2所述的方法,其特征在于,所述根据所述情感识别结果与所述情感解析结果,确定所述第一情感,包括:
当所述情感识别结果与所述情感解析结果各自指示的情感类别相同时,将所述情感识别结果所指示的情感类别作为所述第一情感;
当所述情感识别结果与所述情感解析结果各自指示的情感类别不同时,将所述情感识别结果与所述情感解析结果进行加权,并将加权处理后指示的情感类别作为所述第一情感。
8.根据权利要求1或2所述的方法,其特征在于,所述第一情感包括:失落、平静、热情或者激情。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京嘀嘀无限科技发展有限公司,未经北京嘀嘀无限科技发展有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010017735.0/1.html,转载请声明来源钻瓜专利网。