[发明专利]一种基于虚拟人的多模态交互输出方法及系统在审
申请号: | 201711162023.2 | 申请日: | 2017-11-21 |
公开(公告)号: | CN107944542A | 公开(公告)日: | 2018-04-20 |
发明(设计)人: | 徐强;尚小维 | 申请(专利权)人: | 北京光年无限科技有限公司 |
主分类号: | G06N3/00 | 分类号: | G06N3/00;G10L15/26;G10L25/63;G06F17/27 |
代理公司: | 北京智信禾专利代理有限公司11637 | 代理人: | 吴肖肖 |
地址: | 100049 北京市石景山区石景山*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 虚拟 多模态 交互 输出 方法 系统 | ||
1.一种基于虚拟人的多模态交互输出方法,其特征在于,所述虚拟人在智能设备运行,包括:
获取多模态数据,所述多模态数据中至少包含语音数据;
解析所述多模态数据,以获得所述语音数据中的语义数据和情感数据;
将所述语义数据和所述情感数据与所述虚拟人的面部参量进行匹配,生成面部仿生数据并输出。
2.根据权利要求1所述的方法,其特征在于,获取多模态数据之前,还包括:
唤醒虚拟人,使所述虚拟人显示在预设的显示区域内。
3.根据权利要求1所述的方法,其特征在于,将所述语义数据和所述情感数据与所述虚拟人的面部参量进行匹配,生成面部仿生数据并输出包括:
根据所述语义数据进行切词,将切词结果与所述虚拟人的嘴型模型进行匹配,以生成嘴部仿生数据并输出;
为所述情感数据设置情感标签;
根据所述情感标签选择对应的面部参量集合,以配合所述嘴型模型的嘴部仿生数据。
4.根据权利要求1至3任意一项所述的方法,其特征在于,所述虚拟人的面部参量包括所述面部骨骼、所述皮肤褶皱、所述面部肌群和/或所述面部肤色。
5.根据权利要求4所述的方法,其特征在于,所述面部参量集合包括但不限于:
所述面部骨骼与所述面部肌群运动的仿生协同数据;
所述面部骨骼与所述皮肤褶皱运动的仿生协同数据;
所述皮肤褶皱与所述面部肌群运动的仿生协同数据;或者
所述面部骨骼、所述皮肤褶皱、所述面部肌群和/或所述面部肤色的仿生协同数据。
6.根据权利要求1所述的方法,其特征在于,所述虚拟人通过3D高模构建生成,具备预设的形象及技能;
所述虚拟人包括运行在所述智能设备上的应用程序、可执行文件或通过所述智能设备投射出的全息影像。
7.根据权利要求6所述的方法,其特征在于,所述智能设备使用的系统包括但不限于WINDOWS系统、MAC OS系统或全息设备内置系统。
8.根据权利要求2所述的方法,其特征在于,所述预设的显示区域包括所述智能设备的显示界面或所述智能设备的投射区域。
9.一种基于虚拟人的多模态交互输出系统,其特征在于,包括智能设备和服务器,所述虚拟人在智能设备运行,其中:
所述智能设备获取多模态数据,所述多模态数据中至少包含语音数据;
所述服务器解析所述多模态数据,以获得所述语音数据中的语义数据和情感数据;
所述服务器将所述语义数据和所述情感数据与所述虚拟人的面部参量进行匹配,生成面部仿生数据;
所述智能设备接收所述面部仿生数据并输出。
10.根据权利要求9所述的系统,其特征在于,所述服务器解析所述多模态数据具体实现为:
根据所述语义数据进行切词,将切词结果与所述虚拟人的嘴型模型进行匹配,以生成嘴部仿生数据并输出;
为所述情感数据设置情感标签;
根据所述情感标签选择对应的面部参量集合,以配合所述嘴型模型的嘴部仿生数据。
11.一种虚拟人,其特征在于,所述虚拟人在智能设备运行,所述虚拟人执行权利要求1-8任意一项所述的方法。
12.一种智能设备,其特征在于,所述智能设备上运行权利要求11所述的虚拟人。
13.一种计算机可读存储介质,其特征在于,其存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1-8任意一项所述方法的步骤。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京光年无限科技有限公司,未经北京光年无限科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711162023.2/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种电子标签
- 下一篇:一种选择多目标量子粒子群算法领导粒子的方法