[发明专利]视频聚类方法、装置、存储介质和电子设备在审
申请号: | 202011016809.5 | 申请日: | 2020-09-24 |
公开(公告)号: | CN112131430A | 公开(公告)日: | 2020-12-25 |
发明(设计)人: | 费志辉;马连洋;衡阵 | 申请(专利权)人: | 腾讯科技(深圳)有限公司 |
主分类号: | G06F16/75 | 分类号: | G06F16/75;G06F16/78;G06F40/30;G06F40/289;G06N3/04 |
代理公司: | 北京同达信恒知识产权代理有限公司 11291 | 代理人: | 李娟 |
地址: | 518044 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 视频 方法 装置 存储 介质 电子设备 | ||
1.一种视频聚类方法,其特征在于,包括:
获取待聚类的视频数据集中每个视频的视频标题;
对每个视频标题进行语义特征提取,得到每个视频标题的特征向量;
根据得到的每个视频标题的特征向量,对所述视频数据集中的每个视频进行聚类处理,得到多个视频集合;每个视频集合中的视频属于同一类别。
2.根据权利要求1所述的方法,其特征在于,所述根据得到的每个视频标题的特征向量,对所述视频数据集中的每个视频进行聚类处理,得到多个视频集合之后,所述方法还包括:
根据接收到的针对所述多个视频集合中的指定视频集合输入的类别信息,为所述指定视频集合中的每个视频标注相同的类别标签。
3.根据权利要求2所述的方法,其特征在于,所述根据接收到的针对所述多个视频集合中的指定视频集合输入的类别信息,为所述指定视频集合中的每个视频标注相同的类别标签之后,所述方法还包括:
获取目标用户的特征信息,并根据所述目标用户的特征信息确定目标类别标签;
选择标注有所述目标类别标签的视频,作为向所述目标用户推荐的目标视频。
4.根据权利要求1所述的方法,其特征在于,对每个视频标题进行语义特征提取,得到每个视频标题的特征向量;包括:
将每个视频标题分别输入已训练的语义特征提取模型,得到每个视频标题的特征向量;所述语义特征提取模型是采用已标注类别标签的视频标题样本作为训练数据进行训练得到的。
5.根据权利要求4所述的方法,其特征在于,所述语义特征提取模型的训练过程包括:
获取训练数据集,所述训练数据集中包括多个视频标题样本,每个视频标题样本均具有对应的类别标签,所述类别标签用于标识所述视频标题样本对应的视频所属的类别;
从训练数据集中抽取视频标题样本;
将抽取的视频标题样本输入待训练的语义特征提取模型,得到视频标题样本的特征向量;
将视频标题样本的特征向量输入分类网络,得到所述分类网络输出的视频标题样本的类别预测结果;
根据视频标题样本的类别预测结果与视频标题样本的类别标签,确定损失值;
根据确定的损失值调整待训练的语义特征提取模型和分类网络的网络参数,直至所述损失值收敛为止,将调整网络参数后的语义特征提取模型作为已训练的语义特征提取模型。
6.根据权利要求5所述的方法,其特征在于,所述待训练的语义特征提取模型为经过预训练的BERT模型或Word2vec模型。
7.根据权利要求5所述的方法,其特征在于,每个视频标题样本具有多个类别标签,所述分类网络为多分类网络;所述将视频标题样本的特征向量输入分类网络,得到所述分类网络输出的视频标题样本的类别预测结果,包括:
将视频标题样本的特征向量输入多分类网络,得到视频标题样本对应于每个预设类别的预测概率;
将大于或等于设定阈值的预测概率及对应的预设类别作为视频标题样本的类别预测结果。
8.根据权利要求5所述的方法,其特征在于,每个视频标题样本具有一个类别标签,所述分类网络为二分类网络;所述将视频标题样本的特征向量输入分类网络,得到所述分类网络输出的视频标题样本的类别预测结果,包括:
将视频标题样本的特征向量输入二分类网络,得到视频标题样本对应于每个预设类别的预测概率;
将预测概率的最大值及对应的预设类别作为视频标题样本的类别预测结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司,未经腾讯科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011016809.5/1.html,转载请声明来源钻瓜专利网。