[发明专利]一种基于深度神经网络的边缘计算任务的分配方法及装置有效
申请号: | 201911421262.4 | 申请日: | 2019-12-31 |
公开(公告)号: | CN111176820B | 公开(公告)日: | 2021-06-25 |
发明(设计)人: | 王煜炜;李叙晶;孙胜;刘敏;王元卓 | 申请(专利权)人: | 中科院计算技术研究所大数据研究院 |
主分类号: | G06F9/48 | 分类号: | G06F9/48;G06F9/50;G06N3/04;G06N3/08 |
代理公司: | 北京沁优知识产权代理有限公司 11684 | 代理人: | 郭娜 |
地址: | 450000 河南省郑州*** | 国省代码: | 河南;41 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 神经网络 边缘 计算 任务 分配 方法 装置 | ||
1.一种基于深度神经网络的边缘计算任务的分配方法,其特征在于:其步骤包括:
获得参数量数据,分别计算神经网络中,待计算网络层的参数量;
获得计算量数据,根据待计算网络层的参数量获得计算量数据;
计算任务分配,根据计算量数据获得终端设备计算任务;根据终端设备计算任务获得边缘服务器的计算任务;判断剩余计算任务是否需要在云服务器执行,如需要,则将剩余计算任务分配至云服务器,如不需要,则将剩余计算任务分配至边缘服务器。
2.根据权利要求1所述的基于深度神经网络的边缘计算任务的分配方法,其特征在于:所述待计算网络层的参数量包括卷积层参数量、全连接层参数量;所述计算量数据包括卷积层计算量、全连接层计算量。
3.根据权利要求2所述的基于深度神经网络的边缘计算任务的分配方法,其特征在于:所述卷积层参数量为,
,
其中,Pl1为卷积层参数量,k1为卷积核的宽,k2为卷积核的高,为卷积层输入通道数,为卷积层输出通道数。
4.根据权利要求2或3所述的基于深度神经网络的边缘计算任务的分配方法,其特征在于:所述全连接层参数量为,
,
其中,Pl2为全连接层参数量,为全连接层输入的宽,为全连接层输出的宽。
5.根据权利要求4所述的基于深度神经网络的边缘计算任务的分配方法,其特征在于:所述卷积层计算量为,
,
其中,Fl1为卷积层计算量,为卷积层输出的宽,为卷积层输出的高,Pl1为卷积层参数量。
6.根据权利要求5所述的基于深度神经网络的边缘计算任务的分配方法,其特征在于:所述全连接层计算量为,
Fl2=2*Pl2,
其中,Fl2为全连接层计算量,Pl2为全连接层参数量。
7.根据权利要求5或6所述的基于深度神经网络的边缘计算任务的分配方法,其特征在于:所述终端设备计算任务的获得方法为,
,
其中,Fl为终端设备各网络层的计算量,sum(Fl)为分配到终端设备网络层的总计算量,α为可变参数,为终端设备的计算能力。
8.根据权利要求7所述的基于深度神经网络的边缘计算任务的分配方法,其特征在于:所述边缘服务器计算任务的获得方法为,
其中,Fe是分配到边缘服务器的计算任务,Fd是分配到设备的计算任务,N为边缘服务器连接的终端设备数量,K为所述边缘服务器CPU计算能力与相连的终端设备平均CPU计算能力之比。
9.一种基于深度神经网络的边缘计算任务的分配装置,所述装置包括:
参数量数据获取模块,用于计算神经网络中,待计算网络层的参数量;
计算量数据获取模块,用于根据待计算网络层的参数量获得计算量数据;
计算任务分配模块,用于根据计算量数据获得终端设备计算任务;根据终端设备计算任务获得边缘服务器的计算任务;判断剩余计算任务是否需要在云服务器执行,如需要,则将剩余计算任务分配至云服务器,如不需要,则将剩余计算任务分配至边缘服务器。
10.一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时能够实现如权利要求1-8任一项所述的基于深度神经网络的边缘计算任务的分配方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中科院计算技术研究所大数据研究院,未经中科院计算技术研究所大数据研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911421262.4/1.html,转载请声明来源钻瓜专利网。