[发明专利]一种多尺度注意力的深度非线性因子化方法有效
申请号: | 202111050195.7 | 申请日: | 2021-09-08 |
公开(公告)号: | CN113723340B | 公开(公告)日: | 2023-05-30 |
发明(设计)人: | 柯亨进;陈丹;李小俚;王凤琴;刘志远 | 申请(专利权)人: | 湖北理工学院 |
主分类号: | G06F18/213 | 分类号: | G06F18/213;G06N3/048;G06N3/0464;G06N3/088;A61B5/372;A61B5/055;A61B5/00 |
代理公司: | 北京中创博腾知识产权代理事务所(普通合伙) 11636 | 代理人: | 李梅 |
地址: | 435003 *** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 尺度 注意力 深度 非线性 因子 方法 | ||
1.一种多尺度注意力的深度非线性因子化方法,其特征在于,包括如下步骤:
步骤1:多模态脑成像大队列特征构建;
步骤2:脑成像数据的多尺度注意力特征提取;
步骤3:多模态脑成像数据深度非线性因子化;首先,构造深度平行因子分解模型,模型自动学习初始张量的因子,分解过程无需任何先验知识或假设条件,有多种基张量供选择,包括随机基张量、单位基张量、相对距离基张量或Hilbert基张量;
步骤4:因子的前向拟合和反向构造与求精;
步骤5:反向更新非线性神经网络参数;
步骤2中融合通道注意力模块和空间注意力模块对输入原始数据进行筛选,对提取的众多特征进行自动注意力加权,从而强调重要特征并压缩不重要特征;
步骤4中因子的前向拟合:从初始张量(
步骤4中因子的反向构造与求精:为了满足Kruskal条件的本质唯一分解,所有来自N模式的因子都用Hilbert基张量进行张量乘积,目的是最大限度地保留复原张量的结构信息,受自编码器启发,最小化复原张量(
步骤5的算法思想主要是借助链式法则,训练误差关于偏置的梯度是所有节点的灵敏度之和,对于训练误差相对于连接权重的梯度,用BP算法进行计算,由于连接权值共享,因此对于一个给定权值,需要对所有与该权值有联系的连接对该点求梯度,然后再对这些梯度求和。
2.如权利要求1所述的一种多尺度注意力的深度非线性因子化方法,其特征在于,步骤1的步骤如下:首先,利用多尺度注意力机制对关键特征进行聚焦;然后,利用深度因子化理论将高维脑成像张量映射到低维空间,同步提取多维度特征因子,同时解决先验知识缺乏、参数设定依赖专家设定的挑战;其次,利用层次平行因子理论,实现增量式高维脑成像数据的非线性因子求解,在分布式并行计算架构下实现因子融合海量并行计算获取脑成像大队列的特征因子;最后,利用深度网络模型对以因子为主的特征进行时空域增强,最终得到动态高维脑成像数据的低维特征。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于湖北理工学院,未经湖北理工学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111050195.7/1.html,转载请声明来源钻瓜专利网。