[发明专利]一种基于深度学习的视频检索方法有效

专利信息
申请号: 201910814850.8 申请日: 2019-08-27
公开(公告)号: CN110717068B 公开(公告)日: 2023-04-18
发明(设计)人: 印鉴;陈智聪 申请(专利权)人: 中山大学
主分类号: G06F16/73 分类号: G06F16/73;G06F16/75
代理公司: 广州粤高专利商标代理有限公司 44102 代理人: 林丽明
地址: 510275 广东*** 国省代码: 广东;44
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 深度 学习 视频 检索 方法
【权利要求书】:

1.一种基于深度学习的视频检索方法,其特征在于,包括以下步骤:

S1:建立用于视频特征提取的深度学习网络模型G;所述步骤S1的具体过程是:

S11:建立G网络的第一层视频向量层,将预处理后的每个视频中的每一帧照片表示成一个低纬、稠密的实数向量,在大规模标注照片上预训练好的图片模型Resnet,将整个视频表示成视频向量矩阵X=[x1,…,xt,…,xn],其中n是视频帧数,向量矩阵X的维度是照片预处理大小112*112;

S12:建立G网络的第二层ResNet层,在这一层中让模型学习到整个视频的上下文信息,对于向量X,每一帧图片是向量中的一个元素,第t个帧元素表示为xt,通过ResNet模型后提取到一组设定好的nbit长度的特征向量;步骤S12中,特征提取过程如下:先将ResNet模型经过Kinetics视频数据集进行预训练,然后再进行微调,每个视频经过预训练好的ResNet模型后,会生成一组k大小的特征数向量,这个k是指视频有k种分类;然后再经过一个Linear层转换成自定义的n长度的特征数;

S13:建立G网络的第三层特征向量Hash层,将ResNet输出的特征向量进行Hash转化成0、1值的向量,以此减少存储空间;

S2:对步骤S1中得到的模型进行训练与测试;所述步骤S2的具体过程是:

S21:将数据集分为训练数据以及测试数据;

S22:整体的模型要进行训练,G网络的训练步骤如下:由G网络提取出视频特征,由损失函数L1的最小化来训练G网络模型,训练G网络的参数;

S23:模型的测试步骤为:先过第一遍测试数据集,将测试数据输入到G网络,然后由G网络生成特征,将特征存储到数据库DB1,然后进行第二遍特征mAP计算,将每一个视频的特征与DB1中数据进行距离计算,之后进行mAP计算;

S3:利用S3中得到的弄醒建立用于提供后台接口的进程,提供检索入口以及返回检索结果。

2.根据权利要求1所述的基于深度学习的视频检索方法,其特征在于,所述步骤S3的具体过程是:

S31:将训练后的ResNet模型保存下来;

S32:创建一个后台服务进程,预留视频输入的接口;

S33:通过访问S32中创建的接口,将视频输入进去,之后S32的后台服务进程会先对视频进行预处理,处理成S31的ResNet模型所需要的输入格式,接下来调取S31中保存的ResNet模型,将处理好的视频输入进模型,并得到nbit的特征数,然后经过Hash后调去数据库中存储的视频特征数据进行距离计算,并按小到大进行排序后返回前k个视频,即最相似的前k个视频为检索结果。

3.根据权利要求2所述的基于深度学习的视频检索方法,其特征在于,步骤S22中,G网络的训练过程中,采用交叉熵损失与三元组损失作为损失函数,并且损失值的大小是根据交叉熵损失与三元组损失的总和,训练过程中采用SGD进行优化,采用Margin设置距离间距,防止过拟合。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201910814850.8/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top