[发明专利]视频召回方法、装置及电子设备在审
申请号: | 202110202148.3 | 申请日: | 2021-02-23 |
公开(公告)号: | CN112949703A | 公开(公告)日: | 2021-06-11 |
发明(设计)人: | 宋炜;王森 | 申请(专利权)人: | 广州市百果园信息技术有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06N3/08;G06N20/00;H04N21/45;H04N21/466 |
代理公司: | 北京润泽恒知识产权代理有限公司 11319 | 代理人: | 莎日娜 |
地址: | 511400 广东省广州市番*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 视频 召回 方法 装置 电子设备 | ||
1.一种视频召回方法,其特征在于,所述方法包括:
获取样本中关于目标用户的多用户ID类特征和多用户统计特征,以及视频ID类特征和视频统计特征;其中,所述多用户ID类特征为多个用户共享同一ID的ID类特征,所述多用户统计特征是根据多用户ID类特征在样本中出现的频次统计得到的;
将所述多用户ID类特征、所述多用户统计特征、所述视频ID类特征以及所述视频统计特征输入至第一因子分解机FM模型中进行训练,得到训练后的第二FM模型;
通过所述第二FM模型,从视频数据库中确定所述目标用户的召回视频。
2.根据权利要求1所述的方法,其特征在于,所述将所述多用户ID类特征、所述多用户统计特征、所述视频ID类特征以及所述视频统计特征输入至第一因子分解机FM模型中进行训练,得到训练后的第二FM模型,包括:
将所述多用户ID类特征和所述多用户统计特征进行预设处理,得到第一用户向量;
将所述视频ID类特征和所述视频统计特征进行所述预设处理,得到第一视频向量;
将所述第一用户向量和所述第一视频向量进行第一拼接处理,得到预测结果;
根据所述预测结果对所述第一FM模型进行调整,得到第二FM模型。
3.根据权利要求2所述的方法,其特征在于,所述预设处理,包括:
将目标ID类特征中的每一ID类特征转换为第一维度向量;
将所述第一维度向量经过平均池化处理,得到第二维度向量;
将目标统计特征经过多层神经网络MLP处理,得到第三维度向量;
将所述第二维度向量与所述第三维度向量进行第二拼接处理,得到目标向量;
其中,所述目标ID类特征为多用户ID类特征或者视频ID类特征,在所述目标ID类特征为多用户ID类特征的情况下,所述目标统计特征为多用户统计特征,所述目标向量为第一用户向量;在所述目标ID类特征为视频ID类特征的情况下,所述目标统计特征为视频统计特征,所述目标向量为第一视频向量。
4.根据权利要求3所述的方法,其特征在于,所述将所述第二维度向量与所述第三维度向量进行第二拼接处理,得到目标向量,包括:
将所述第二维度向量与所述第三维度向量进行第二拼接处理,得到拼接向量;
将所述拼接向量输入至第一全连接层,得到目标向量。
5.根据权利要求2所述的方法,其特征在于,所述将所述第一用户向量和所述第一视频向量进行第一拼接处理,得到预测结果,包括:
将所述第一用户向量进行余弦计算,得到第一余弦值;
将所述第一视频向量进行余弦计算,得到第二余弦值;
将所述第一余弦值、所述第二余弦值以及样本中的偏置特征进行第一拼接处理,得到拼接特征;
将所述拼接特征输入至第二全连接层,得到预测结果。
6.根据权利要求1所述的方法,其特征在于,所述通过所述第二FM模型,从视频数据库中确定所述目标用户的召回视频,包括:
将所述第二FM模型转换为神经网络模型TensorFlow模型;
将所述TensorFlow模型进行处理,得到用户向量预测模型以及视频向量预测模型;
根据所述用户向量预测模型和所述视频向量预测模型,从所述视频数据库中确定所述目标用户的召回视频。
7.根据权利要求6所述的方法,其特征在于,所述根据所述用户向量预测模型和所述视频向量预测模型,从所述视频数据库中确定所述目标用户的召回视频,包括:
将所述视频ID类特征和所述视频统计特征输入至所述视频向量预测模型中,得到预测视频向量;
根据所述视频数据库以及所述预测视频向量,建立逼近最近邻ANN开源算法库KNN库;
在接收到请求获取所述目标用户的召回视频的第一信息的情况下,获取关于所述目标用户的用户线上特征;
将所述用户线上特征输入至所述用户向量预测模型中,得到预测用户向量;
根据所述KNN库中每一预测视频向量与所述预测用户向量的相似度,确定所述目标用户的召回视频。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广州市百果园信息技术有限公司,未经广州市百果园信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110202148.3/1.html,转载请声明来源钻瓜专利网。