[发明专利]基于胶囊网络的深度视频指纹算法有效
申请号: | 202010121069.5 | 申请日: | 2020-02-26 |
公开(公告)号: | CN111325169B | 公开(公告)日: | 2023-04-07 |
发明(设计)人: | 李新伟;徐良浩;杨艺 | 申请(专利权)人: | 河南理工大学 |
主分类号: | G06V20/40 | 分类号: | G06V20/40;G06V10/774;G06V10/764;G06V10/82;G06N3/0464;G06N3/084 |
代理公司: | 北京合创致信专利代理有限公司 16127 | 代理人: | 刘素霞 |
地址: | 454000 河南*** | 国省代码: | 河南;41 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 胶囊 网络 深度 视频 指纹 算法 | ||
1.一种基于胶囊网络的深度视频指纹方法,其特征在于,所述深度视频指纹方法包括以下步骤:
S1、采用权值共享的三分支网络为架构,以胶囊网络为基础,构建深度胶囊网络,所述深度胶囊网络具体包括:
S11、将三维卷积和二维卷积相结合,提取视频时空特征;
S12、采用所述深度胶囊网络将所述视频时空特征压缩为紧凑视频指纹;
S13、采用三元组损失函数对所述紧凑视频指纹进行度量学习,所述三元组损失函数为带有中心损失约束的自适应的三元组角度损失函数,所述三元组角度损失函数具体为:
S131、采用归一化的余弦相似性作为度量函数,通过所述视频时空特征之间的距离运算转化为角度运算,增强所述视频时空特征之间的相关性学习,所述归一化的余弦相似性表示为:
其中s1,s2表示为深度胶囊网络提取的紧凑视频指纹向量,||·||2表示为2范数;
S132、设计自适应间隔损失,依据三元组样本对自适应调整间隔值,自适应间隔损失β表示为:
其中S(v,v-)表示原视频与非拷贝视频紧凑特征之间的余弦相似性,S(v,v+)表示原视频与拷贝视频紧凑特征之间的余弦相似性;
S133、所述S132中的所述三元组样本对损失后增加一个中心损失约束项,规范正样本对之间的相似性学习,所述中心损失约束项θ表示为:
θ=||1-S(v,v+)||2
带有中心损失约束项的自适应三元组角度损失函数具体表示为:
其中,分别表示第t组视频三元组中原视频、拷贝视频和非拷贝视频的紧凑视频特征,m表示为批次大小;
S2、对所述深度胶囊网络进行训练;
S3、对完成训练的所述深度胶囊网络进行视频指纹提取与匹配。
2.根据权利要求1所述的基于胶囊网络的深度视频指纹方法,其特征在于,所述S2对所述深度胶囊网络进行训练,具体包括:
S21、建立训练视频数据集;
S22、对所述训练视频数据集进行预处理,得到视频三元组;
S23、以视频三元组作为所述三分支网络的输入,通过前向传播算法提取每个视频的高级语义特征以及紧凑视频特征;
S24、通过所述深度胶囊网络提取的所述紧凑视频特征,计算度量损失所产生的损失值;
S25、通过所述深度胶囊网络提取的所述高级语义特征,计算分类损失所产生的损失值;
S26、依据反向传播算法计算所述深度胶囊网络中每个节点的梯度;
S27、采用SGD随机梯度下降法对所述深度胶囊网络中每个节点的权值进行优化更新;
S28、重复所述S23-S27,直到S24和S25中的损失值不再变化为止,完成所述深度胶囊网络的训练。
3.根据权利要求1所述的基于胶囊网络的深度视频指纹方法,其特征在于,所述S3对完成训练的所述深度胶囊网络进行视频指纹提取与匹配,具体包括:
S31、选取输入视频,所述输入视频包括原视频和查询视频,对所述输入视频进行预处理;
S32、完成训练的所述深度胶囊网络中的单分支网络作为提取器,分别将原视频和查询视频作为所述深度胶囊网络的输入,以提取所述原视频和所述查询视频的紧凑视频特征;
S33、对所述深度胶囊网络所提取到的所述紧凑视频特征进行二值编码,分别生成原视频指纹和查询视频指纹;
S34、计算所述原视频指纹和所述查询是指纹之间的汉明距离;
S35、设定阈值并根据计算出的汉明距离,判断所述查询视频和所述原视频之间是否存在拷贝关系;
若汉明距离小于设定阈值,则查询视频定义为拷贝视频,若汉明距离大于设定阈值,则查询视频定义为非拷贝视频。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于河南理工大学,未经河南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010121069.5/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种视频去重方法和装置
- 下一篇:一种图像处理方法、装置及存储介质