[发明专利]卷积神经网络模型的计算方法及装置有效
申请号: | 201911022124.9 | 申请日: | 2019-10-25 |
公开(公告)号: | CN110796245B | 公开(公告)日: | 2022-03-22 |
发明(设计)人: | 郭振华;范宝余;王丽;高开 | 申请(专利权)人: | 浪潮电子信息产业股份有限公司 |
主分类号: | G06N3/063 | 分类号: | G06N3/063;G06N3/04;G06N3/08 |
代理公司: | 北京集佳知识产权代理有限公司 11227 | 代理人: | 李慧引 |
地址: | 250101 山东*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 卷积 神经网络 模型 计算方法 装置 | ||
本发明提供了的一种卷积神经网络模型的计算方法及装置,该方法包括:通过获取卷积神经网络模型的训练任务的计算模型;然后,将所述卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成多个乘加运算任务;再根据预设的计算模型与计算设备的对应关系,确认每一个乘加运算任务所对应的计算设备;最后,利用所述每一个乘加运算任务所对应的计算设备,分别对所述每一个乘加运算任务进行计算。达到了提高当CNN模型训练任务在不同计算设备上进行迁移或不同处理器协同计算的灵活性,提高计算速度的目的。
技术领域
本发明涉及计算机技术领域,特别涉及一种卷积神经网络模型的计算方法及装置。
背景技术
随着计算机技术以及人工智能技术的不断发展,卷积神经网络(ConvolutionalNeural Network,CNN)模型应用的越来越广泛,随着人们的对CNN模型在目标检测与识别过程中的准确率要求越来越高,CNN模型的规模也在不断的增长,因此对于用来进行CNN模型训练任务的硬件平台的要求也越来越高。然而随着摩尔定律的限制,现有技术中用于CNN训练任务的硬件平台逐渐达到瓶颈。
因此,业界内均开始尝试采用其他异构设备对CNN模型训练任务进行异构加速;但是,现有技术中包含CPU、GPU、FPGA、AI专用处理器在内的计算设备,在进行CNN模型训练计算任务时,均有着专用定制的计算执行粒度,当CNN模型训练任务在不同计算设备上进行迁移或不同处理器协同计算时,十分的不灵活,严重影响了计算速度。
发明内容
有鉴于此,本发明实施例提供一种卷积神经网络模型的计算方法及装置,用于提高当CNN模型训练任务在不同计算设备上进行迁移或不同处理器协同计算的灵活性,提高计算速度。
为实现上述目的,本发明实施例提供如下技术方案:
一种卷积神经网络模型的计算方法,包括:
获取卷积神经网络模型的训练任务的计算模型;
将所述卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成多个乘加运算任务;
根据预设的计算模型与计算设备的对应关系,确认每一个乘加运算任务所对应的计算设备;
利用所述每一个乘加运算任务所对应的计算设备,分别对所述每一个乘加运算任务进行计算。
可选的,所述获取卷积神经网络模型的训练任务的计算模型,包括:
获取卷积神经网络模型的训练任务;
利用深度学习框架对卷积神经网络模型的训练任务进行处理,生成数据流图,所述数据流图作为所述卷积神经网络模型的训练任务的计算模型。
可选的,所述将所述卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成多个乘加运算任务,包括:
将所述卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成首位乘加运算任务、中间乘加运算任务和末位乘加运算任务;其中,所述首位乘加运算任务在进行前向传播计算时,包括一个乘法计算,进行后向传播计算时包括一个乘法计算和一个加法计算;所述中间乘加运算任务,包括一个乘法计算和一个加法计算;所述末位乘加计算任务,在进行前向传播计算时,包括一个一个乘法计算和一个加法计算,进行后向传播计算时包括一个乘法计算。
可选的,所述利用所述每一个乘加运算任务所对应的计算设备,分别对所述每一个乘加运算任务进行计算,还包括:
判断所述乘加运算任务所对应的计算设备的当前负载率是否大于所述乘加运算任务所对应的计算设备所对应的负载率阈值;
若判断出所述乘加运算任务所对应的计算设备的的当前负载率大于所述乘加运算任务所对应的计算设备所对应的负载率阈值,则调用当前可用的计算设备进行计算所述乘加运算任务。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浪潮电子信息产业股份有限公司,未经浪潮电子信息产业股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911022124.9/2.html,转载请声明来源钻瓜专利网。