[发明专利]一种自动驾驶场景下脉冲神经网络步长的确定方法和装置在审
申请号: | 202210473731.2 | 申请日: | 2022-04-29 |
公开(公告)号: | CN114723018A | 公开(公告)日: | 2022-07-08 |
发明(设计)人: | 孙国梁;郑四发;王洪剑;陈涛 | 申请(专利权)人: | 清华大学苏州汽车研究院(相城);清华大学 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 北京品源专利代理有限公司 11332 | 代理人: | 孔凡红 |
地址: | 215134 江苏省苏州*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 自动 驾驶 场景 脉冲 神经网络 步长 确定 方法 装置 | ||
本发明公开了一种自动驾驶场景下脉冲神经网络步长的确定方法和装置。该方法包括:将当前步长设置为步长初始值,将输入数据输入至脉冲神经网络;当脉冲神经网络输出与所述输入数据匹配的结果数据时,计算脉冲神经网络中各神经元的平均激活率;提高当前步长的数值,重复执行将输入数据输入至脉冲神经网络的操作,直至确定脉冲神经网络中各神经元的平均激活率满足预设区域收敛条件;将当前步长的数值作为自动驾驶场景下的脉冲神经网络的目标步长。使用本发明的技术方案,可以实现动态调整脉冲神经网络的步长,从而在保障脉冲神经网络的检测精度的同时,降低能耗,减少预测时间。
技术领域
本发明涉及计算神经科学、人工智能与自动驾驶技术领域,尤其涉及一种自动驾驶场景下脉冲神经网络步长的确定方法和装置。
背景技术
在自动驾驶场景中,为确保车辆对周围环境的获取与识别,自动驾驶系统的感知模块需要通过各类传感器获取周边环境信息。基于摄像头获取环境信息在感知模块中扮演着重要角色,基于摄像头输出环境信息的感知算法有目标检测、目标跟踪等。目前,目标检测算法的主流模型是卷积神经网络(Convolutional Neural Network,CNN),但是,卷积神经网络存在着高算力带来的高功耗的问题,因此,具备低功耗、低时延特点的脉冲神经网络(Spiking Neural Network,SNN)开始进入人们的视野。
脉冲神经网络需要经过多次前向计算,在主干网络的各个层的神经元都具备足够的激励后才能得到有效的输出结果。因此,在现有的利用脉冲神经网络的进行目标检测的方案中,通常是给定一个较大的步长,以使得网络中的神经元获得足够多的激励。但是,各个神经元得到最优输出结果的步长并不相同,步长过大并不会对脉冲神经网络的性能提升带来多大的帮助,反而会为设备带来更大的功耗。
发明内容
本发明提供了一种自动驾驶场景下脉冲神经网络步长的确定方法和装置,以实现动态调整脉冲神经网络的步长,从而在保障脉冲神经网络的检测精度的同时,降低能耗,减少预测时间。
第一方面,本发明实施例提供了一种自动驾驶场景下脉冲神经网络步长的确定方法,该方法包括:
将当前步长设置为步长初始值,将输入数据输入至脉冲神经网络;
当脉冲神经网络输出与所述输入数据匹配的结果数据时,计算脉冲神经网络中各神经元的平均激活率;
提高当前步长的数值,重复执行将输入数据输入至脉冲神经网络的操作,直至确定脉冲神经网络中各神经元的平均激活率满足预设区域收敛条件;
将当前步长的数值作为自动驾驶场景下的脉冲神经网络的目标步长。
第二方面,本发明实施例还提供了一种自动驾驶场景下脉冲神经网络步长的确定装置,该装置包括:
输入数据输入模块,用于将当前步长设置为步长初始值,将输入数据输入至脉冲神经网络;
平均激活率计算模块,用于当脉冲神经网络输出与所述输入数据匹配的结果数据时,计算脉冲神经网络中各神经元的平均激活率;
区域收敛条件判断模块,用于提高当前步长的数值,重复执行将输入数据输入至脉冲神经网络的操作,直至确定脉冲神经网络中各神经元的平均激活率满足预设区域收敛条件;
目标步长确定模块,用于将当前步长的数值作为自动驾驶场景下的脉冲神经网络的目标步长。
第三方面,本发明实施例还提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如本发明实施例中任一所述的自动驾驶场景下脉冲神经网络步长的确定方法。
第四方面,本发明实施例还提供了一种存储计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如本发明实施例中任一所述的自动驾驶场景下脉冲神经网络步长的确定方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学苏州汽车研究院(相城);清华大学,未经清华大学苏州汽车研究院(相城);清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210473731.2/2.html,转载请声明来源钻瓜专利网。