[发明专利]一种基于图文融合的生成式摘要生成方法有效
申请号: | 201910764261.3 | 申请日: | 2019-08-19 |
公开(公告)号: | CN110704606B | 公开(公告)日: | 2022-05-31 |
发明(设计)人: | 曹亚男;徐灏;尚燕敏;刘燕兵;谭建龙;郭莉 | 申请(专利权)人: | 中国科学院信息工程研究所 |
主分类号: | G06F16/34 | 分类号: | G06F16/34;G06F16/35;G06F16/36;G06T11/60 |
代理公司: | 北京君尚知识产权代理有限公司 11200 | 代理人: | 司立彬 |
地址: | 100093 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 图文 融合 生成 摘要 方法 | ||
1.一种基于图文融合的生成式摘要生成方法,其步骤包括:
1)将给定的文本数据集划分为训练集、验证集和测试集;其中,文本数据集中的每一样本是一三元组(X,I,Y),X是文本,I是文本X对应的图像,Y是文本X的摘要;生成式摘要模型包含特征提取模块、特征融合模块以及摘要生成模块;
2)特征提取模块使用区域卷积神经网络捕获每一图像的实体特征,然后选取区域最大的前三个实体特征作为候选区域;然后生成该图像全局特征的图像特征和三个候选区域的图像特征;然后将所述图像特征转换为与文本同维度的图像特征向量;
3)使用训练集和训练集对应的图像特征向量对生成式摘要模型进行训练;其中进行训练时,对于同一样本,特征融合模块将该样本对应的文本向量和该样本对应的图像特征向量进行拼接,得到向量化表示的训练集、验证集和测试集;然后从向量化表示的训练集中选取k个样本依次输入到编码器中,得到文本和图像的联合编码hs,通过中间语义向量ct,计算解码器的隐状态ht,从而实现特征融合;然后摘要生成模块使用融合的特征生成摘要;
4)输入一条文本和对应图像并生成该图像的图像特征向量,然后将该文本及其对应的图像特征向量输入到训练后的生成式摘要模型,得到该文本对应的摘要。
2.如权利要求1所述的方法,其特征在于,图像特征向量包括图像全局特征向量和图像中最大区域的三个实体向量。
3.如权利要求1所述的方法,其特征在于,所述特征融合的方法为:在编码阶段当前时刻i的隐层输出为联合编码hs,在编码阶段当前时刻i解码器的隐状态为ht,通过转移矩阵Wa计算当前状态下的ht与hs的关联程度score(ht,hs)并对其归一化得到at(s),然后计算中间语义向量ct=at(s)·hs,及解码器的隐状态
4.如权利要求3所述的方法,其特征在于,摘要生成模块生成的摘要为其中,yt是生成摘要Y的第t个词,A是样本的文本向量和图像特征向量拼接特征,Ws是参数矩阵。
5.如权利要求1所述的方法,其特征在于,使用双线性网络将每一个候选区域的图像特征转化为与文本同维度的图像特征向量It=WiIv,其中Iv表示图像特征,Wi是双线性网络的参数,It表示与文本同维度的图像特征向量。
6.如权利要求1所述的方法,其特征在于,使用区域卷积神经网络捕获每一图像的实体特征的方法为:
21)应用过分割技术,将每一图像分割成多个区域,然后对同一图像的各区域按照设定合并规则进行合并,将合并后出现的所有区域作为初步候选区域;
22)使用一个CNN网络对每一个初步候选区域进行特征提取;
23)将每个初步候选区域得到的特征输入到支持向量机分类器中,判别是否是对应的实体标签;
24)使用回归模型,根据类别标志的结果修正初步候选区域的边框位置;
25)将该图像的初步候选区域按照区域大小排序,选取区域最大的前三个区域对应的实体作为图像的实体特征。
7.如权利要求6所述的方法,其特征在于,所述合并规则为相近颜色合并或近似纹理合并。
8.如权利要求1所述的方法,其特征在于,利用测试集测试训练后的生成式摘要模型,测试通过后利用验证集验证生成式摘要模型,验证通过后进行步骤4)。
9.如权利要求1所述的方法,其特征在于,将作为优化目标,对生成式摘要模型进行训练,直至生成式摘要模型收敛;其中,N是训练集中的样本量总个数,θ是为生成式摘要模型参数,yn是摘要的第n个词,an为第n个词对应的特征。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院信息工程研究所,未经中国科学院信息工程研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910764261.3/1.html,转载请声明来源钻瓜专利网。