[发明专利]神经网络处理方法、装置、电子设备和存储介质在审
申请号: | 201910897451.2 | 申请日: | 2019-09-23 |
公开(公告)号: | CN110610238A | 公开(公告)日: | 2019-12-24 |
发明(设计)人: | 李益永;林哲;王文斓;吴晓东;刘建强;许佳 | 申请(专利权)人: | 广州虎牙科技有限公司 |
主分类号: | G06N3/08 | 分类号: | G06N3/08 |
代理公司: | 11463 北京超凡宏宇专利代理事务所(特殊普通合伙) | 代理人: | 张欣欣 |
地址: | 511400 广东省广州市番禺*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 神经网络模型 目标函数 神经网络参数 神经网络处理 神经网络分析 存储介质 电子设备 分析处理 分析函数 更新处理 解释性 预设 申请 | ||
本申请提供的神经网络处理方法、装置、电子设备和存储介质,涉及神经网络分析处理技术领域。在本申请中,首先,可以基于待处理的神经网络模型中的神经网络参数建立目标函数;其次,可以基于预设的分析函数对所述目标函数进行分析处理,得到分析结果;然后,可以基于所述分析结果对所述神经网络模型进行更新处理。通过上述方法,可以改善现有技术中在对神经网络模型进行处理时存在的可解释性差的问题。
技术领域
本申请涉及神经网络分析处理技术领域,具体而言,涉及一种神经网络处理方法、装置、电子设备和存储介质。
背景技术
神经网络模型作为一种算法模型,在对信息或数据进行处理时,具有自学习和高速寻找最优解等能力,因而,被广泛应用。其中,基于工程的一些需要,在实际应用过程中可能会对当前的神经网络模型进行更新处理,而得到满足需求的神经网络模型。
经发明人研究发现,现有的对神经网络模型进行更新处理的技术,一般存在着可解释性差的问题。
发明内容
有鉴于此,本申请的目的在于提供一种神经网络处理方法、装置、电子设备和存储介质,以改善现有技术中在对神经网络模型进行处理时存在的可解释性差的问题。
为实现上述目的,本申请实施例采用如下技术方案:
一种神经网络处理方法,包括:
基于待处理的神经网络模型中的神经网络参数建立目标函数;
基于预设的分析函数对所述目标函数进行分析处理,得到分析结果;
基于所述分析结果对所述神经网络模型进行更新处理。
在本申请实施例较佳的选择中,在上述神经网络处理方法中,所述基于待处理的神经网络模型中的神经网络参数建立目标函数的步骤,包括:
获取待处理的神经网络模型中的批量归一化参数、通道参数、卷积核参数和特征参数;
根据所述批量归一化参数、所述通道参数、所述卷积核参数和所述特征参数建立目标函数。
在本申请实施例较佳的选择中,在上述神经网络处理方法中,所述根据所述批量归一化参数、所述通道参数、所述卷积核参数和所述特征参数建立目标函数的步骤,包括:
根据所述批量归一化参数、所述通道参数、所述卷积核参数和所述特征参数分别建立第一目标函数和/或第二目标函数;
其中,所述第一目标函数用于表征所述神经网络模型中每个输入通道的贡献程度,所述第二目标函数用于表征所述神经网络模型中每个输出通道的贡献程度。
在本申请实施例较佳的选择中,在上述神经网络处理方法中,所述第一目标函数包括:
W=n*c*kh*kw;
其中,Y为各所述输出通道的张量拉成的向量,该向量的大小为n*h0*w0,Yi为每个输入通道的输入特征对输出通道的贡献分量,该贡献分量的大小为n*h0*w0,αi和βi为批量归一化参数,Ai为一个矩阵,该矩阵的行数为n*h0*w0、列数为h*w,Xi为服从正态分布的向量,该向量的大小为h*w,e为全1向量,该向量的大小为h*w;
n为输出通道的数量,c为输入通道的数量,h0*w0为一个输出通道的大小,h*w为一个输入特征的大小,kh*kw为一个卷积核的大小。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广州虎牙科技有限公司,未经广州虎牙科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910897451.2/2.html,转载请声明来源钻瓜专利网。