[发明专利]一种虚拟现实多视角融合模型的设计方法有效
申请号: | 202110609017.7 | 申请日: | 2021-06-01 |
公开(公告)号: | CN113221381B | 公开(公告)日: | 2022-03-08 |
发明(设计)人: | 姚寿文;栗丽辉;王瑀;胡子然;兰泽令 | 申请(专利权)人: | 北京理工大学 |
主分类号: | G06F30/20 | 分类号: | G06F30/20;G06K9/62;G06V10/80;G06F3/01 |
代理公司: | 北京东方盛凡知识产权代理事务所(普通合伙) 11562 | 代理人: | 张雪 |
地址: | 100081 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 虚拟现实 视角 融合 模型 设计 方法 | ||
1.一种虚拟现实多视角融合模型的设计方法,其特征在于:包括以下步骤:
根据交互任务,采集视角类型,获得主视角、辅助视角以及所述主视角、所述辅助视角之间的配置模式和融合方法,其中,所述交互任务包括对用户的操作精度需求和对用户的空间感知需求,所述融合方法在不同所述辅助视角下在信息丰富程度、直观性和用户介入程度三个维度上分布,所述信息丰富程度指所述辅助视角所能提供给用户的各类信息的完备程度,包括空间信息、碰撞信息、虚拟人的状态信息;
根据所述配置模式和所述融合方法,构建多视角融合模型,所述多视角融合模型用于获得主视角图像和辅助视角图像,并将所述辅助视角图像融合到所述主视角图像中,获得多视角融合图像,
在采集所述视角类型的过程中,所述视角类型至少包括主视角类型、辅助视角类型,所述主视角类型和所述辅助视角类型分别包括第一人称视角或第三人称视角,
在获得所述配置模式的过程中,将所述主视角类型设置为第一人称视角,将所述辅助视角类型设置为第三人称视角,根据所述配置模式,获得所述融合方法,用于表示将所述第三人称视角通过不同的图像融合方式融合到所述第一人称视角中,其中所述图像融合方式至少包括手持式画中画方式、抬头显示画中画方式、手持式微缩世界方式;
在获得所述配置模式的过程中,将所述主视角类型设置为第三人称视角,将所述辅助视角类型设置为第一人称视角,根据所述配置模式,获得所述融合方法,用于表示将所述第一人称视角通过不同的图像融合方式融合到所述第三人称视角中,其中所述图像融合方式至少包括手持式画中画方式、抬头显示画中画方式;
根据所述交互任务对用户空间感知与操作精度的不同需求,所述配置模式包括:
当所述交互任务对近场空间感知能力要求较高,同时对操作精度要求较高时,采用所述第一人称视角1PP作为观察视角;
当所述交互任务对全局空间感知能力有一定的要求,同时对所述操作精度要求较高时,采用作为观察视角,其中为1PP为主视角,3PP为辅助视角;
当所述交互任务对所述全局空间感知能力要求较高,同时对所述操作精度要求较高时,采用作为观察视角,其中,为1PP为主视角,以三维WIM方法融合3PP辅助视角;
当所述交互任务对所述全局空间感知能力要求较高,但对所述操作精度要求较低时,采用所述第三人称视角3PP作为观察视角;
当所述交互任务对所述全局空间感知能力要求较高,且对所述操作精度有一定要求时,采用作为观察视角,其中,所述为以3PP为主视角,1PP为辅助视角;
当所述交互任务对所述全局空间感知能力和所述操作精度都没有较高要求时,采用所述第一人称视角1PP或所述第三人称视角3PP作为观察视角。
2.根据权利要求1所述的虚拟现实多视角融合模型的设计方法,其特征在于:在获得所述融合方法的过程中,所述主视角采用与虚拟人头部对齐的第一虚拟相机;所述辅助视角相机固定在虚拟场景中心后方,并面向虚拟人。
3.根据权利要求2所述的虚拟现实多视角融合模型的设计方法,其特征在于:在获得所述融合方法的过程中,所述主视角相机被固定虚拟场景中心后方,并面向虚拟人,并且随着HMD的旋转而旋转;所述辅助视角相机采用固定在虚拟人头部的虚拟相机。
4.根据权利要求2所述的虚拟现实多视角融合模型的设计方法,其特征在于:所述第一虚拟相机的视场角为110°,所述辅助视角相机的视场角为60°。
5.根据权利要求3所述的虚拟现实多视角融合模型的设计方法,其特征在于:所述主视角相机的视场角为110°,所述辅助视角相机的视场角为60°。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学,未经北京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110609017.7/1.html,转载请声明来源钻瓜专利网。