[发明专利]基于结构化数据的深度学习架构搜索方法有效
申请号: | 202110730220.X | 申请日: | 2021-06-29 |
公开(公告)号: | CN113379068B | 公开(公告)日: | 2023-08-08 |
发明(设计)人: | 王宏志;薛仲豪;王春楠 | 申请(专利权)人: | 哈尔滨工业大学 |
主分类号: | G06N3/0442 | 分类号: | G06N3/0442;G06N3/0464;G06N3/048;G06N3/092 |
代理公司: | 哈尔滨市松花江专利商标事务所 23109 | 代理人: | 岳泉清 |
地址: | 150001 黑龙*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 结构 数据 深度 学习 架构 搜索 方法 | ||
1.基于结构化数据的深度学习架构搜索方法,其特征在于,该搜索方法包括:
S1、采用递归神经网络生成编码,根据编码确定唯一的深度神经网络模型;
S2、在结构化数据集上训练深度神经网络模型,所述结构化数据提供网页的页面信息和对网页的页面内容进行分类;
S3、根据训练结果,更新递归神经网络;
S4、采用深度神经网络模型对搜索空间进行搜索,采用蒙特卡洛策略梯度更新搜索策略,获得最优架构;
将搜索空间用于网页搜索引擎,获得网页搜索的最优架构,展示网页重要信息;
S1所述采用递归神经网络生成编码的具体方法为:
递归神经网络模型由两个长短记忆单元构成,两个长短记忆单元通过全连接层生成N维向量;
采用ε-贪心的方法获取每层神经网络的神经单元数量,以神经单元数量作为深度神经网络模型的编码;
采用递归神经网络模型能够扩展搜索空间,两个长短记忆单元用于保存前置信息;
激活函数的选择方法为:
ε-贪心的结果作为下一次迭代的输入,获得展开后的递归神经网络模型;
递归神经网络模型每展开两次产生一个隐藏层;
根据第二次展开的输出确定激活函数的类型;
S1所述根据编码确定深度神经网络模型包括:
ε-贪心的结果作为下一次迭代的输入,获得展开后的递归神经网络模型;
递归神经网络每展开一次,在深度神经网络中增加一个新的隐藏层,最终生成深度神经网络模型。
2.根据权利要求1所述的基于结构化数据的深度学习架构搜索方法,其特征在于,所述两个长短记忆单元通过全连接层生成N维向量采用的激活函数是归一化指数函数。
3.根据权利要求1所述的基于结构化数据的深度学习架构搜索方法,其特征在于,所述N维向量是对标签的独热编码分类的预测。
4.根据权利要求3所述的基于结构化数据的深度学习架构搜索方法,其特征在于,所述标签是每层神经网络的最优单元数量。
5.根据权利要求1所述的基于结构化数据的深度学习架构搜索方法,其特征在于,所述编码格式为:
{10,relu,8,sigmoid,5,softmax};
其中,10、8、5表示神经单元数量,relu、sigmoid、softmax均表示激活函数。
6.根据权利要求1-5中任意一项所述的基于结构化数据的深度学习架构搜索方法,其特征在于,所述递归神经网络将t-1时刻的输出向量直接传递给t时刻的输出向量。
7.根据权利要求6所述的基于结构化数据的深度学习架构搜索方法,其特征在于,所述递归神经网络在首次展开时,递归神经网络的输入置为单位向量。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工业大学,未经哈尔滨工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110730220.X/1.html,转载请声明来源钻瓜专利网。
- 数据显示系统、数据中继设备、数据中继方法、数据系统、接收设备和数据读取方法
- 数据记录方法、数据记录装置、数据记录媒体、数据重播方法和数据重播装置
- 数据发送方法、数据发送系统、数据发送装置以及数据结构
- 数据显示系统、数据中继设备、数据中继方法及数据系统
- 数据嵌入装置、数据嵌入方法、数据提取装置及数据提取方法
- 数据管理装置、数据编辑装置、数据阅览装置、数据管理方法、数据编辑方法以及数据阅览方法
- 数据发送和数据接收设备、数据发送和数据接收方法
- 数据发送装置、数据接收装置、数据收发系统、数据发送方法、数据接收方法和数据收发方法
- 数据发送方法、数据再现方法、数据发送装置及数据再现装置
- 数据发送方法、数据再现方法、数据发送装置及数据再现装置