[发明专利]视频定位方法和装置、存储介质及电子装置有效
申请号: | 201910351116.2 | 申请日: | 2019-04-28 |
公开(公告)号: | CN110134829B | 公开(公告)日: | 2021-12-07 |
发明(设计)人: | 李祖桐;阳赵阳 | 申请(专利权)人: | 腾讯科技(深圳)有限公司 |
主分类号: | G06F16/78 | 分类号: | G06F16/78;G06F16/783 |
代理公司: | 北京康信知识产权代理有限责任公司 11240 | 代理人: | 周婷婷 |
地址: | 518000 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 视频 定位 方法 装置 存储 介质 电子 | ||
1.一种视频定位方法,其特征在于,包括:
获取待定位视频的目标文本特征信息;使用所述目标文本特征信息,从所述待定位视频中定位出的召回作品集,其中,所述召回作品集中包括多个参考视频,所述参考视频的文本特征信息与第一视频集合中的视频的文本特征信息相匹配;
从待定位视频中获取目标图像特征信息和目标音频特征信息;使用所述目标图像特征信息,从第一视频集合中定位出第一候选视频,其中,所述第一候选视频的图像特征信息与所述目标图像特征信息相匹配;将所述第一候选视频中不在所述召回作品集的视频进行过滤,得到第一备选视频;
使用所述目标音频特征信息,从所述第一视频集合中定位出第二候选视频,其中,所述第二候选视频的音频特征信息与所述目标音频特征信息相匹配;将所述第二候选视频中不在所述召回作品集的视频进行过滤,得到第二备选视频;
在所述第一备选视频和所述第二备选视频为不同视频的情况下,根据所述第一备选视频与所述待定位视频之间的目标相似度,从所述第一备选视频和所述第二备选视频中确定出与所述待定位视频匹配的目标视频;
其中,根据所述第一备选视频与所述待定位视频之间的所述目标相似度,从所述第一备选视频和所述第二备选视频中确定出与所述待定位视频匹配的所述目标视频包括:在所述目标相似度大于或者等于相似度阈值的情况下,确定所述第一备选视频为与所述待定位视频匹配的所述目标视频;在所述目标相似度小于相似度阈值的情况下,确定所述第二备选视频为与所述待定位视频匹配的所述目标视频。
2.根据权利要求1所述的方法,其特征在于,从所述待定位视频中获取所述目标图像特征信息包括:
按照第一步长,从所述待定位视频中抽取出多个目标视频帧;
使用第一转换模型,将所述多个目标视频帧转换为用于表示所述多个目标视频帧的多个目标图像特征向量,其中,所述多个目标视频帧和所述多个目标图像特征向量之间具有一一对应关系,所述目标图像特征信息包括所述多个目标图像特征向量。
3.根据权利要求2所述的方法,其特征在于,使用所述目标图像特征信息,从第一视频集合中定位出第一候选视频包括:
根据所述多个目标图像特征向量中的每个目标音频特征向量与用于表示多个候选视频帧的多个候选图像特征向量之间的向量相似度,从所述多个候选视频帧中为与所述多个目标视频帧中的每个目标视频帧分别获取对应的多个第一视频帧,其中,所述多个候选视频帧包括使用所述第一步长从所述第一视频集合中的多个第一视频中抽取出的视频帧,所述多个候选图像特征向量预先存储的第一特征向量库中;
根据所述多个第一视频帧与所述每个目标视频帧的相似关系,以及所述多个第一视频帧与所述多个第一视频之间的对应关系,从所述第一视频集合中定位出所述第一候选视频。
4.根据权利要求3所述的方法,其特征在于,
在根据所述多个第一视频帧与所述每个目标视频帧的相似关系,以及所述多个第一视频帧与所述多个第一视频之间的对应关系,从所述第一视频集合中定位出所述第一候选视频之前,所述方法还包括:获取与所述待定位视频对应的文本信息;使用与所述待定位视频对应的文本信息,从所述第一视频集合中获取第二视频集合,其中,与所述第二视频集合中的每个第二视频对应的文本信息均和与所述待定位视频对应的文本信息相匹配;从所述多个第一视频帧中获取多个第二视频帧,其中,所述多个第二视频帧中的每个第二视频帧均属于所述第二视频集合中的一个第二视频;
根据所述多个第一视频帧与所述每个目标视频帧的相似关系,以及所述多个第一视频帧与所述多个第一视频之间的对应关系,从所述第一视频集合中定位出所述第一候选视频包括:根据所述多个第二视频帧与所述每个目标视频帧的相似关系,以及所述多个第二视频帧与所述多个第一视频之间的对应关系,从所述第一视频集合中定位出所述第一候选视频,以及所述待定位视频在所述第一候选视频中的位置。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司,未经腾讯科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910351116.2/1.html,转载请声明来源钻瓜专利网。