[发明专利]一种情境敏感的网络空间虚拟机器人塑造方法在审
申请号: | 202010523233.5 | 申请日: | 2020-06-10 |
公开(公告)号: | CN111754639A | 公开(公告)日: | 2020-10-09 |
发明(设计)人: | 郭斌;王梓琪;於志文;王柱;梁韵基;刘思聪;崔禾磊 | 申请(专利权)人: | 西北工业大学 |
主分类号: | G06T19/00 | 分类号: | G06T19/00 |
代理公司: | 西安利泽明知识产权代理有限公司 61222 | 代理人: | 刘伟 |
地址: | 710072 *** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 情境 敏感 网络 空间 虚拟 机器人 塑造 方法 | ||
本发明一种情境敏感的网络空间虚拟机器人塑造方法,所述方法包括:构建情境敏感模型:所述构建情境敏感模型用于识别输入的用户的周围环境,提取所述用户的情境信息;构建虚拟机器人形象塑造模型:所述虚拟机器人形象塑造模型用于输入所述提取出来的用户的情境信息,塑造适合所述输入情景信息的虚拟机器人形象;联合所述情境敏感模型和所述虚拟机器人形象塑造模型,输出具有情景敏感能力,根据情景切换形象的网络空间虚拟机器人形象。其能够有效解决虚拟机器人对于情境无反应,只能与用户被动交流的问题,同时加入了目标域转换的方法,解决虚拟机器人形象的变化问题。
技术领域
本发明涉及网络情景对话领域,涉及一种情境敏感的网络空间虚拟机器人塑造方法。
背景技术
在过去的十年中,虚拟机器人已成为人工智能(AI)发展的重要方向之一。目前,关于虚拟机器人的具体研究主要集中在聊天机器人上。从早期的对话系统开始,例如ElizaWeizenbaum[1966],Parry Colby[1971]和Alice Wallace[2009],他们都致力于通过文本学习人类对话。尽管有了巨大的突破,但这些聊天机器人仍然存在一些范围限制。目前,完全开放域的聊天机器人仍然是需要努力开发的目标。同时,随着深度学习技术的加入,虚拟机器人的发展方向也应具有多领域目标。本文对于在线社交机器人的研究,目标是在塑造在各个方面都是完全类似于人类的虚拟机器人。因此,除了常规行为的真实性之外,其他方面,例如外貌的真实性和外部环境的标识,即上下文相关。
虚拟机器人的外貌真实性主要是指虚拟机器人应具有类似于人类的外貌和表情动作,以便更好地融入人们的生活。例如,当人们看到虚拟机器人的图像时就像和真实的人类进行视频一样,他们可能会更好,可以跟它聊天,或者听从它的建议。而目前对于虚拟机器人动作表情变换的研究主要集中在通过迁移学习同步模仿人类行为方面,但是这显然是不够的.虚拟社交机器人本质上是为了给人类提供一个虚拟的陪伴对象或者工作伙伴。目前,对于虚拟机器人的塑造主要指的是虚拟机器人对话交流的拟人性,对于外在形象和表情变化方面的塑造比较少。
发明内容
针对以上缺陷,本发明提出一种情境敏感的网络空间虚拟机器人塑造方法,根据不同的情境信息,塑造具有不同特点的虚拟机器人形象。
本发明的技术方案为:一种情境敏感的网络空间虚拟机器人塑造方法,所述方法包括:构建情境敏感模型:所述构建情境敏感模型用于识别输入的用户的周围环境,提取所述用户的情境信息;构建虚拟机器人形象塑造模型:所述虚拟机器人形象塑造模型用于输入所述提取出来的用户的情境信息,塑造适合所述输入情景信息的虚拟机器人形象;联合所述情境敏感模型和所述虚拟机器人形象塑造模型,输出具有情景敏感能力,根据情景切换形象的网络空间虚拟机器人形象。
进一步的,一种情境敏感的网络空间虚拟机器人塑造方法,所述用户的情景信息通过用户所使用设备端的图像获取设备获得。
进一步的,一种情境敏感的网络空间虚拟机器人塑造方法,所述情境信息包括用户自身的信息和用户所处的背景信息。
进一步的,一种情境敏感的网络空间虚拟机器人塑造方法,所述用户的情景信息提取方法为:根据目标检测算法,将用户所处情景中的信息进行划分,分别提取所述划分后情景信息的关键数据。
进一步的,一种情境敏感的网络空间虚拟机器人塑造方法,所述关键数据包括用户的外貌特征、背景标志物特征。
进一步的,一种情境敏感的网络空间虚拟机器人塑造方法,所述虚拟机器人形象塑造模型,利用所提取的情景信息中的关键数据,采用自适应实例标准化的方法进行特征补齐,输出的图像为虚拟机器人的外貌形象。
进一步的,一种情境敏感的网络空间虚拟机器人塑造方法,获得的所述虚拟机器人的外貌形象与所述情景下的用户具有相似性,为降低所述相似性,采用KL散度的方法对所述输出的图像进行优化。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西北工业大学,未经西北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010523233.5/2.html,转载请声明来源钻瓜专利网。