[发明专利]一种基于多域学习的人工神经网络设计方法在审
申请号: | 202210299040.5 | 申请日: | 2022-03-25 |
公开(公告)号: | CN114648098A | 公开(公告)日: | 2022-06-21 |
发明(设计)人: | 郭权锐;杨裕亮;党衍斌 | 申请(专利权)人: | 郭权锐;党衍斌 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08;G06K9/62;G06N5/04;G06V10/70;G06V10/764;G06V10/82 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 100083 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 学习 人工 神经网络 设计 方法 | ||
本发明提供了一种基于多域学习的人工神经网络设计方法,属于人工智能技术;该方法包含:根据目标任务,构建适合当前任务的神经网络作为主干网络;根据任务特点或实验结果,选择除时域/空域外一个或多个正交变换域作为多域学习的目标域;在网络中的特征提取部分构建多域学习结构;在选定的数据集上对上述网络进行训练,得到训练完成后的网络模型;以及,根据验证集对网络模型进行验证。该网络设计方法将图像特征转换到时域/空域以外的域中进行学习,解决了网络模型在单一域学习的成本问题,能够有效提升网络模型的效果,提高网络的泛化能力。
技术领域
本发明属于人工智能技术领域,特别提供一种基于多域学习的神经网络设计方法。
背景技术
计算机视觉作为一门热门学科,在科学研究、社会发展、军事建设和工业生产等领域都得到了广泛的关注与应用。得益于计算机技术的迅猛发展,基于深度学习而非传统方法来处理视觉任务成为了可能。当前,在绝大部分领域,基于深度学习的方法均能达到和超越传统方法的性能。这也显示了深度学习技术的广阔前景。
目前基于深度学习的网络设计大多仅仅关注于在时域/空域的处理,通过在时域/空域的不同变换来获取、捕捉有用信息。人们认为神经网络的学习能力能够通过不断的叠加模块,提升深度,或是设计更加精巧的网络结构来进行提升,以达到设计目标。例如残差设计创造了数据跨层流动的通路,进而提升了网络的深度,注意力机制通过找到图像中更重要的区域并突出这些区域,使网络的学习能力得到加强,特征融合技术让网络能够同时使用不同尺度的语义信息,有效的提升了检测精度。但图像在其他变换域的信息却始终没有得到人们的重视。通过域变换,图像在时域/空域中一些不明显、不直观、难学习的信息可以更容易的被神经网络学习,在不同的域中交替或并行学习,能够有效提升网络的学习能力与泛化能力。
发明内容
为了解决现有技术中存在的问题,本发明提供了一种基于多域学习的神经网络设计方法,能够实现更好的网络性能。
为达到上述目的,本发明的技术方案是这样实现的:
步骤一:根据目标任务,构建适合当前任务的神经网络作为主干网络;
步骤二:根据任务特点或实验结果,选择除时域/空域外一个或多个正交变换域作为多域学习的目标域;
步骤三:在网络中的特征提取部分构建多域学习结构;
步骤四:在选定的数据集上对上述网络进行训练,得到训练完成后的网络模型;
步骤五:根据验证集对网络模型进行验证。
根据本发明的一些实施例,所述根据目标任务,构建适合当前任务的神经网络作为主干网络,包括步骤:针对不同任务特点,包括但不限于任务类型、速度要求、准确度要求等,设计、选取合适的主干网络。
根据本发明的一些实施例,所述根据任务特点或实验效果,选择除时域/空域外一个或多个域作为多域学习的目标域,包括步骤:通过对数据集图像在不同域上的分析与实验的结果比较,选择若干非时域/空域的变换域作为多域学习的目标域。
根据本发明的一些实施例,所述在网络中的特征提取部分构建多域学习结构,包括步骤:
通过在网络基本模块前加入域变换层或反比变换层,构成变换模块与反域变换模块,其公式分别为:
y=T(f(x))
y=IT(f(x))
其中,x表示特征图输入,y表示模块输出,f()表示网络基本模块函数,T()表示对输入特征图进行的域变换函数,IT()表示对输入特征图进行的反域变换函数;
通过域变换模块与反域变换模块,将特征图转换到频域与时域/空域进行学习;
采用串联、并联等方式使用两种模块,每个模块上在频域、时域/空域分别学习,两种模块交替学习,以此为基本架构,组成网络主要架构。
根据本发明的一些实施例,所述在选定的数据集上对上述网络进行训练,得到训练完成后的网络模型,包括步骤:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于郭权锐;党衍斌,未经郭权锐;党衍斌许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210299040.5/2.html,转载请声明来源钻瓜专利网。