[发明专利]一种基于生成对抗网络的文本隐写方法有效
申请号: | 201810833603.8 | 申请日: | 2018-07-26 |
公开(公告)号: | CN108923922B | 公开(公告)日: | 2021-04-23 |
发明(设计)人: | 段大高;赵振东;韩忠明;崔岩松 | 申请(专利权)人: | 北京工商大学 |
主分类号: | H04L9/08 | 分类号: | H04L9/08;H04L12/24;G06N3/08;G06N3/04 |
代理公司: | 北京盛询知识产权代理有限公司 11901 | 代理人: | 张海青 |
地址: | 100048*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种基于生成对抗网络的文本隐写方法,该模型将文本隐写看作是一个文本序列生成过程,通过密钥映射表将秘密文本有效地隐写于生成文本中,同时保证了生成文本有较高的质量,在对抗训练中使用策略梯度优化生成器,最后使得生成模型可以生成高质量隐写文本,相比于传统的训练方法,对抗学习过程可以让模型更好地拟合整个语料库的分布,生成更为合理的短语搭配和长文本。 | ||
搜索关键词: | 一种 基于 生成 对抗 网络 文本 方法 | ||
【主权项】:
1.一种基于生成对抗网络的文本隐写方法,其特征在于,包括:基于生成对抗网络的文本生成模型:生成对抗网络由两部分组成,第一部分是生网络,第二部分是判别网络,让生网络和判别网络相互竞争,通过生成网络来生成假的数据,对抗网络通过判别器判别真伪,最后以生成网络生成的数据来以假乱真骗过判别器;优化生成对抗网络:生成对抗网络的优化用生成器G和判别器D的零和博弈游戏来表示,其优化目标函数公式为
在生成对抗网络的优化过程中,需要训练生成器G来最大化判别数据来源真实数据还是生成数据,同时还需要训练生成模型来最小化使得生成的数据更加能够骗过判别器D,采用交替优化的方法,先固定生成器G,优化判别器D,使得判别器D达到最优,然后固定判别器D,优化生成器G,使得判别器D的判别准确率下降,当且仅当Pdata=Pg,即判别器D对真实采样样本和生成样本,输出概率都是0.5时达到全局最优解;训练文本生成模型:生成器G生成每一个词看做一个强化学习中代理决策过程,同时借用策略梯度算法来优化生成器G,并在训练过程中用正样本辅助训练技巧,提升算法收敛速度和算法稳定性,生成器Gθ用两层单向的LSTM神经网络实现,θ是网络的参数,判别器D用多层卷积网络实现;生成器G生成的文本数据标记为负样本,采样得到的真实文本数据标记位正样本,将生成器G生成负样本和采样得到的正样本同时输入判别器
进行迭代优化,
是判别网络参数,判别器损失函数采用交叉熵损失函数,如下公式(2)所示,y(i)是输入数据的标签生成器生成数据定义为0,真实语料库采样数据标记为1;![]()
当训练生成器G时,把判别器D参数固定,对于生成器Gθ,其训练目标是最终生成合理的文本序列,而对于文本合理性的评价用判别器D来实现,当生成器G生成完成一个完整的序列,将其输入判别器
即可得到判别结果作为Reward,生成器G优化的目标就是最大化Reward值,生成器的损失函数如公式(3)所示,RT是一个完整序列y1:T的Reward值,由判别器D给出,Gθ(yt|S0:t‑1)代表生成器Gθ根据历史状态S0:t‑1产生决策行为,即产生当前词yt的概率值;文本隐写算法:首先根据ASCII码将待加密的密文映射为二进制串S,然后将二进制串S切分为长度为|B|的片段,最后文本生成模型根据上述片段序列生成隐写文本。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京工商大学,未经北京工商大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201810833603.8/,转载请声明来源钻瓜专利网。