[发明专利]在虚拟空间呈现包含表情与惯性动作的真人3D模型方法在审
申请号: | 202010915871.1 | 申请日: | 2020-09-03 |
公开(公告)号: | CN112004142A | 公开(公告)日: | 2020-11-27 |
发明(设计)人: | 刘京;陈云森 | 申请(专利权)人: | 北京淘喜网络科技有限公司 |
主分类号: | H04N21/433 | 分类号: | H04N21/433;H04N21/44;G06N3/02 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 100000 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 虚拟空间 呈现 包含 表情 惯性 动作 真人 模型 方法 | ||
本发明公开了在虚拟空间呈现包含表情与惯性动作的真人3D模型方法,在虚拟空间呈现包含表情与惯性动作的真人3D模型方法,具体步骤如下:第一步:创建服务端;第二步:客户端连接到服务端;第三步:录制或者上传一段面部视频;第四步:视频数据传输给服务端,服务端将视频分解成一帧帧图像;第五步:将分解后的图像传入到神经网络库重进行推理分析;第六步:取得面部数据,返回标准的json数据给服务端;第七步:服务端将面部数据返回给客户端,客户端将数据进行序列化,与面部进行绑定;第八步:虚拟人物的面部与视频中的人物动作同步。本发明不需要其他设备,用户只需要录制一段自己的面部视频,且面部表情数据真实。
技术领域
本发明涉及3D模型技术领域,具体是在虚拟空间呈现包含表情与惯性动作的真人3D模型方法。
背景技术
传统的真人表情捕捉,通过在面部做标记点,能取得细腻的动画效果。本专利提出一种新的面部表情捕捉技术,通过神经网络解析视频每帧的数据,将人物表情数据获取到。然后与虚拟人物面部进行绑定,形成一个专属自己的数字人。
发明内容
本发明的目的在于提供在虚拟空间呈现包含表情与惯性动作的真人3D模型方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:
在虚拟空间呈现包含表情与惯性动作的真人3D模型方法,具体步骤如下:
第一步:创建服务端;
第二步:客户端连接到服务端;
第三步:录制或者上传一段面部视频;
第四步:视频数据传输给服务端,服务端将视频分解成一帧帧图像;
第五步:将分解后的图像传入到神经网络库重进行推理分析;
第六步:取得面部数据,返回标准的json数据给服务端;
第七步:服务端将面部数据返回给客户端,客户端将数据进行序列化,与面部进行绑定;
第八步:虚拟人物的面部与视频中的人物动作同步。
作为本发明进一步的方案:所述第二步中,客户端为手机。
作为本发明再进一步的方案:所述第四步中,视频数据通过传输模块发送至服务端,服务端通过分解模块对图像进行分解。
作为本发明再进一步的方案:所述第五步中,神经网络库内设有分析模块对图像进行分析。
作为本发明再进一步的方案:所述第六步中,将取得的面部数据通过反馈模块返回给服务端。
与现有技术相比,本发明的有益效果是:本发明不需要其他设备,用户只需要录制一段自己的面部视频,且面部表情数据真实。
具体实施方式
下面结合具体实施方式对本发明的技术方案作进一步详细地说明。
在虚拟空间呈现包含表情与惯性动作的真人3D模型方法,具体步骤如下:
第一步:创建服务端;
第二步:客户端连接到服务端,所述客户端为手机;
第三步:录制或者上传一段面部视频;
第四步:视频数据传输给服务端,服务端将视频分解成一帧帧图像,所述视频数据通过传输模块发送至服务端,服务端通过分解模块对图像进行分解;
第五步:将分解后的图像传入到神经网络库重进行推理分析,所述神经网络库内设有分析模块对图像进行分析;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京淘喜网络科技有限公司,未经北京淘喜网络科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010915871.1/2.html,转载请声明来源钻瓜专利网。