[发明专利]一种实现文本匹配的可解释神经网络的方法有效
申请号: | 201910649105.2 | 申请日: | 2019-07-18 |
公开(公告)号: | CN110472010B | 公开(公告)日: | 2022-05-10 |
发明(设计)人: | 毛晓柳;张鹏 | 申请(专利权)人: | 天津大学 |
主分类号: | G06F16/33 | 分类号: | G06F16/33;G06F16/332;G06F16/35;G06F40/211;G06N3/04;G06N3/08 |
代理公司: | 天津市北洋有限责任专利代理事务所 12201 | 代理人: | 韩帅 |
地址: | 300072*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种实现文本匹配的可解释神经网络的方法,包括以下步骤:将深层卷积网络映射为张量网络;将张量网络看作图,利用最小割理论分析语言特点(远距离相关和近距离相关)与深层卷积网络的通道数的关系;针对匹配任务的数据集(比如QA任务),利用量子纠缠熵量化句子对的语言特点,纠缠熵越大,句子对属于远距离相关,纠缠熵越小,句子对属于近距离相关;从而将数据集分为远距离相关的子数据集和近距离相关的子数据集,根据不同的子数据集动态的调整网络架构,即卷积网络每层的通道数。 | ||
搜索关键词: | 一种 实现 文本 匹配 可解释 神经网络 方法 | ||
【主权项】:
1.一种实现文本匹配的可解释神经网络的方法,包括如下步骤,/nS1、通过卷积网络相关基础信息建立张量网络模型;/nS2、采用最小割方法将张量网络视为图形处理分别获得短程相关类和远程相关类;/nS3、分别提取短程相关类和远程相关类中参数确定attention matrix数学模型,其特征在于:/n3.1、通过如下公式建立句子对的全局表示:/n给定包含单词的n个单词序列({wi∈Rm}(i∈[n]),把它拆分成两部分VQ∪VA={w1,...,wn},这里VQ={w1,...,wb},VA={w1,...,wn-b};/n3.2、利用attention matrix和熵量化句子对之间的相关性通过如下公式获得Attention矩阵;/n /n其中,b表示问题句的句子长度,n-b表示问题句的句子长度,k表示词向量的维度;/n3.3、通过如下公式计算纠缠熵。/n /nS∈(0,ln(r)),Smax=ln(r);/n3.4、根据纠缠熵划分远程相关的子数据集和近程相关的子数据集;/n3.5、根据远程相关的子数据集确定卷积网络中相应的分配通道数量;/n3.6、根据近程相关的子数据集确定卷积网络中相应的分配通道数量。/n
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津大学,未经天津大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910649105.2/,转载请声明来源钻瓜专利网。
- 上一篇:一种数据查询方法和装置
- 下一篇:一种诉讼成本预测方法、装置及终端设备