[发明专利]一种数据处理方法和装置有效
申请号: | 201710437809.4 | 申请日: | 2017-06-12 |
公开(公告)号: | CN109034384B | 公开(公告)日: | 2021-06-22 |
发明(设计)人: | 林志 | 申请(专利权)人: | 浙江宇视科技有限公司 |
主分类号: | G06N3/08 | 分类号: | G06N3/08 |
代理公司: | 北京超凡志成知识产权代理事务所(普通合伙) 11371 | 代理人: | 吴开磊 |
地址: | 310051 浙江省杭州市滨*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 数据处理 方法 装置 | ||
本申请实施例公开了一种数据处理方法和装置,该方法通过BN层的参数,对卷积层数据处理规则中的参数进行了修正,并基于修正后的参数生成了融合层数据处理规则,从而,在接收到待处理数据时,可以直接根据融合层数据处理规则进行处理,输出正常的处理结果,通过应用本申请实施例所提出的技术方案,可以在包含BN层的深度学习网络中,实现正常的数据处理,避免BN层权重数值超过half实数范围而导致结果错误的问题,同时也减少了整个网络的计算量。
技术领域
本申请涉及网络数据处理领域,特别涉及一种数据处理方法和装置。
背景技术
原始深度学习网络框架Caffe只支持float(单精度浮点型)数据类型(4字节)和double(双精度浮点型)数据类型(8字节)两种数据类型,目前大部分训练(train)、测试(test)以及应用过程(inference)都是基于float数据类型来完成的。但是某些大网络,耗时和显存消耗很严重,尤其是在嵌入式设备中,很多网络无法直接应用,这就对降低计算耗时和显存提出了更高的要求。解决方案之一是利用half(半精度浮点型)数据类型(2字节)来优化整个Caffe框架,由于每个数据的内存占用降低了一倍,整个网络的内存消耗也几乎降低了一倍,带宽消耗减小到原来的1/2,性能也可提升近一倍。
越来越多的深度学习网络中开始用到BN(Batch Normalization,批量标准化)层,可以用来减小协方差偏移并带来很多好处,例如:可以使用更高的学习速率;不再那么小心翼翼地对待初始化的问题;还可以作为正则项,不再依赖Dropout;等等。尤其是目前使用广泛的ResNet基础网络中,也用到了BN层。
申请人在实现本申请的过程中发现,上述现有的处理方案至少存在如下的问题:
用half数据类型优化了Caffe框架后,训练过程仍然使用float来保持精度,但在inference过程中(即实际应用过程中)使用half数据类型来提高计算效率,降低内存和带宽消耗。但在实际使用过程中会遇到一个与BN层相关的问题,即BN层的权重数据variance(方差)值太大,超过了half的示数范围,造成数据溢出,以致于BN层之后的结果都不正确,无法正常使用。
在训练和应用过程中不使用BN层可以避免上述问题,但显然不能满足深度学习网络的设计需求。
由此可见,如何在仍然使用BN层的情况下,解决BN层权重(主要是variance)数值超过half(半精度浮点型,最大值为65504)的示数范围,而导致结果错误的问题,成为了本领域技术人员亟待解决的难题。
发明内容
本申请实施例提供一种数据处理方法和装置,在包含BN层的深度学习网络中,实现正常的数据处理,避免BN层权重数值超过half实数范围而导致结果错误的问题,同时也减少了整个网络的计算量。
为了达到上述技术目的,本申请提供了一种数据处理方法,应用于包含卷积层和BN层的深度学习网络中,所述方法具体包括:
通过BN层的参数,对卷积层数据处理规则中的参数进行修正;
通过修正后的参数,对卷积层数据处理规则进行修正,生成融合层数据处理规则;
当接收到待处理数据时,通过所述融合层数据处理规则进行处理,并输出处理结果。
优选的,所述通过BN层的参数,对卷积层数据处理规则中的参数进行修正,具体包括:
通过BN层的参数,对卷积层数据处理规则中的卷积核对应值进行修正,生成融合层的卷积核对应值;
通过BN层的参数,对卷积层数据处理规则中的偏置值进行修正,生成融合层的偏置值。
优选的,所述通过BN层的参数,对卷积层数据处理规则中的卷积核对应值进行修正,生成融合层的卷积核对应值,具体根据以下公式完成:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江宇视科技有限公司,未经浙江宇视科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710437809.4/2.html,转载请声明来源钻瓜专利网。