[发明专利]虚拟道具互动方法、装置和计算机设备在审
申请号: | 202111342699.6 | 申请日: | 2021-11-12 |
公开(公告)号: | CN116132723A | 公开(公告)日: | 2023-05-16 |
发明(设计)人: | 赵文琦;夏巍;高岚;何婷;沈招益;郑天航 | 申请(专利权)人: | 腾讯科技(深圳)有限公司 |
主分类号: | H04N21/431 | 分类号: | H04N21/431;H04N21/4788;H04N21/472 |
代理公司: | 华进联合专利商标代理有限公司 44224 | 代理人: | 郑义 |
地址: | 518000 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 虚拟 道具 互动 方法 装置 计算机 设备 | ||
1.一种虚拟道具互动方法,其特征在于,所述方法包括:
展示多媒体播放界面,所述多媒体播放界面中显示有目标对象;
在所述多媒体播放界面中显示互动入口;
响应于对所述互动入口的触发操作,在所述多媒体播放界面中与所述目标对象对应的区域范围内显示互动动画,所述互动动画中包括有按照与所述目标对象的面部表情相匹配的互动方式进行互动的虚拟道具。
2.根据权利要求1所述的方法,其特征在于,所述在所述多媒体播放界面中与所述目标对象对应的区域范围内显示互动动画,包括:
检测所述多媒体播放界面中播放的所述目标对象的目标部位所在区域、以及所述目标对象的面部表情;
获取与所述目标对象的面部表情相匹配的目标互动方式;
在与所述目标部位所在区域相对应的区域范围内,显示包括有按照所述目标互动方式进行互动的虚拟道具的互动动画。
3.根据权利要求2所述的方法,其特征在于,所述目标部位包括面部部位,所述检测所述多媒体播放界面中播放的所述目标对象的目标部位所在区域、以及所述目标对象的面部表情,包括:
获取所述目标对象的面部特征;其中,所述面部特征从针对所述目标对象所采集的面部图像中提取得到;
基于所述面部特征确定所述目标对象的面部关键点;
根据所述面部关键点,确定所述目标对象的面部部位所在区域、以及确定所述目标对象的面部表情。
4.根据权利要求2所述的方法,其特征在于,所述目标部位包括面部部位,所述检测所述多媒体播放界面中播放的所述目标对象的目标部位所在区域、以及所述目标对象的面部表情,包括:
检测所述多媒体播放界面所播放的多媒体内容的播放进度;
根据所述播放进度从预设的识别结果库中筛选出目标识别结果,并根据所述目标识别结果确定当前时刻所述目标对象的面部部位所在区域、以及确定所述目标对象的面部表情。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
获取多媒体应用所播放的多媒体内容,并按照预设的抽帧频率对所述多媒体内容进行抽帧处理,得到抽取出的多帧目标视频帧;
针对每帧目标视频帧,均对当前目标视频帧中的目标对象进行识别,得到识别结果;其中,所述识别结果包括所述目标对象的面部部位所在区域、以及所述目标对象的面部表情;
将每帧目标视频帧各自对应的识别结果进行存储,得到识别结果库。
6.根据权利要求5所述的方法,其特征在于,所述按照预设的抽帧频率对所述多媒体内容进行抽帧处理,得到抽取出的多帧目标视频帧,包括:
按照预设的抽帧频率对所述多媒体内容进行抽帧处理,得到抽取视频帧;
根据所述抽帧频率对所述抽取视频帧进行缺帧检验,得到检验结果,并根据所述检验结果,对所述多媒体内容进行补充抽帧处理,得到补充视频帧;
基于所述抽取视频帧和所述补充视频帧,得到多帧目标视频帧。
7.根据权利要求5所述的方法,其特征在于,所述将每个目标视频帧各自对应的识别结果进行存储,得到识别结果库,包括:
确定每帧目标视频帧各自对应的播放进度,并按照预设的时间窗口和时间窗口移动步长,将所述目标视频帧的播放进度划分为多个播放进度区间;
对应每个播放进度区间,确定落在当前播放进度区间内的各目标视频帧的识别结果之间的差异,并将差异小于差异阈值的识别结果进行合并;
将合并后的识别结果进行存储,得到识别结果库。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司,未经腾讯科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111342699.6/1.html,转载请声明来源钻瓜专利网。
- 上一篇:生产NMN的菌株及其构建方法和应用
- 下一篇:一种导电胶及其制备方法