[发明专利]基于跨模型交互网络实现问题-视频片段抽取任务的方法有效
申请号: | 201910516683.9 | 申请日: | 2019-06-14 |
公开(公告)号: | CN110377792B | 公开(公告)日: | 2021-09-21 |
发明(设计)人: | 赵洲;孟令涛;张竹;陈漠沙;仇伟 | 申请(专利权)人: | 浙江大学 |
主分类号: | G06F16/78 | 分类号: | G06F16/78;G06N3/04;G06F40/30 |
代理公司: | 杭州求是专利事务所有限公司 33200 | 代理人: | 郑海峰 |
地址: | 310058 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 模型 交互 网络 实现 问题 视频 片段 抽取 任务 方法 | ||
1.一种基于跨模型交互网络实现问题-视频片段抽取任务的方法,其特征在于包括如下步骤:
1)针对问题语句,利用语义图像卷积网络获取问题语句的语义表达;
2)针对视频,获取包含视频内容中的长范围语义依赖信息的自注意力视频语义表达;所述的步骤1)具体为:
针对问题语句,利用提前训练好的Glove word2vec模型获取问题语句的单词表达q=(q1,q2,...qi,...qm),其中qi代表问题语句中第i个单词的Glove特征表达向量;将问题语句的单词表达q=(q1,q2,...qi,...qm)输入到双向GRU网络中,获取问题语句的上下文单词表达其中代表问题语句中第i个单词的上下文单词表达;
利用自然语言处理工具方法,获取问题语句中的语义依赖图θ=(ν,ε),其中ν代表语义依赖图中所有点的集合,每个语义依赖图中的点为问题语句的一个单词;ε代表语义依赖图中所有边的集合,每个语义依赖图中的边为问题语句中的一个单词对之间的依赖关系,及单词自身到自身的自循环依赖关系;
按照如下公式计算获得l层语义图像卷积网络的输出作为问题语句的语义表达,
其中,表示第l层语义图像卷积网络输出中第i个单词对应的输出,代表可训练的变换矩阵,dir(i,j)代表(i,j)边的指向方向,代表可训练的偏置向量,lab(i,j)代表(i,j)边的标签,N(i)代表所有与点i有依赖关系的点的集合,ReLU(·)代表ReLU运算,gk代表第k层语义图像卷积网络的中间输出,k=(1,2,...,l);
3)利用步骤1)获取的问题语句的语义表达与步骤2)获取的自注意力视频语义表达,获取视频帧的跨模型语义表达;
4)利用步骤3)获得的视频帧的跨模型语义表达,计算得到跨模型交互网络的损失函数;
5)利用步骤4)获得的跨模型交互网络的损失函数,对跨模型交互网络进行训练,利用训练后的跨模型交互网络,对视频进行以问题为基础的片段抽取。
2.根据权利要求1所述基于跨模型交互网络实现问题-视频片段抽取任务的方法,其特征在于所述的步骤2)具体为:
针对视频,利用提前训练好的3维卷积网络,获取视频帧特征V=(v1,v2,...vi,...,vn),其中vi代表视频中第i帧的特征;利用如下公式计算得到自注意力视频表达
Vs=MultiHead(V,V,V)+V
MultiHead(V,V,V)=WOConcat(head1,head2,...,headH)
headi=Attention(Wi1V,Wi2V,Wi3V)
其中,WO、Wi1、Wi2、Wi3为可训练的线性映射矩阵,Softmax(·)代表softmax运算,dk代表矩阵Wi1、Wi2、Wi3的行数;
将自注意力视频表达输入到双向GRU网络中,获得包含视频内容中的长范围语义依赖信息的自注意力视频语义表达
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学,未经浙江大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910516683.9/1.html,转载请声明来源钻瓜专利网。
- 上一篇:快速影像排序方法
- 下一篇:一种推荐视频制作信息的方法、装置及设备